CN117319701A - 多媒体数据处理方法、装置和计算机可读存储介质 - Google Patents

多媒体数据处理方法、装置和计算机可读存储介质 Download PDF

Info

Publication number
CN117319701A
CN117319701A CN202210722924.7A CN202210722924A CN117319701A CN 117319701 A CN117319701 A CN 117319701A CN 202210722924 A CN202210722924 A CN 202210722924A CN 117319701 A CN117319701 A CN 117319701A
Authority
CN
China
Prior art keywords
data
text
feature data
preset
mapping relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210722924.7A
Other languages
English (en)
Inventor
惠羿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Priority to CN202210722924.7A priority Critical patent/CN117319701A/zh
Priority to PCT/CN2023/101786 priority patent/WO2023246888A1/zh
Publication of CN117319701A publication Critical patent/CN117319701A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了多媒体数据处理方法、装置和计算机可读存储介质,获取多媒体数据的音频流和视频流;解析音频流,得到文本特征数据,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据;解析视频流,得到表情特征数据,根据预设的映射关系对照匹配表情特征数据以确定情感指数;基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。基于此,本发明通过对多人商谈通话的信息流解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,有效的挖掘通话类产品的潜在价值,为商务通话提供多维度的辅助信息,提高商谈效果。

Description

多媒体数据处理方法、装置和计算机可读存储介质
技术领域
本发明实施例涉及但不限于数据处理技术领域,特别是涉及一种多媒体数据处理方法、装置和计算机可读取存储介质。
背景技术
随着经济全球化,跨地域的商务沟通越发频繁,目前的远程商务会议多通过视频会议系统进行,通过传输线路及多媒体设备,将声音、影像及文件资料互传,实现即时且互动的沟通,随着增强现实技术的发展以及5G技术高通量低延时确定性网络的出现,为视频通话乃至增强现实场景带来了高性能的处理潜力,同时,业务层面也需要商务视频会议能够从数据通道中挖掘提供更多有效的会谈辅助信息,然而,当前主流的商务会议通话产品仅仅提供视频语音通话控制和媒体通道服务,缺乏对通道数据进行多维度的分析挖掘和二次加工,没有对媒体数据进行有效的挖掘利用。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本发明实施例提供了一种多媒体数据处理方法、装置和计算机可读存储介质,能够从商务通话的多媒体数据中挖掘分离出多维度信息并进行二次加工,为商务通话提供多维度的辅助信息,提高商谈效果。
第一方面,本发明实施例提供了一种多媒体数据处理方法,包括:获取多媒体数据的音频流和视频流;解析所述音频流,得到文本特征数据,根据预设的映射关系对照匹配所述文本特征数据以确定话题特征数据;解析所述视频流,得到表情特征数据,根据预设的映射关系对照匹配所述表情特征数据以确定情感指数;基于所述文本特征数据、所述情感指数和所述话题特征数据对所述多媒体数据进行渲染。
第二方面,本发明实施例提供了一种多媒体数据处理装置,包括:音频处理模块,用于接收并解析音频流,获得文本特征数据;视频处理模块,用于接收并解析视频流,得到表情特征数据;映射关系模块,用于处理所述文本特征数据得到话题特征数据,处理所述表情特征数据得到情感指数;渲染模块,用于将所述文本特征数据、所述话题特征数据和所述情感指数与所述视频流渲染。
第三方面,本发明实施例提供了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面所述的多媒体数据处理方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行程序,所述计算机可执行程序用于使计算机执行如上第一方面所述的多媒体数据处理方法。
本发明实施例包括:获取多媒体数据的音频流和视频流;解析所述音频流,得到文本特征数据,根据预设的映射关系对照匹配所述文本特征数据以确定话题特征数据;解析所述视频流,得到表情特征数据,根据预设的映射关系对照匹配所述表情特征数据以确定情感指数;基于所述文本特征数据、所述情感指数和所述话题特征数据对所述多媒体数据进行渲染。基于此,本发明通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
图1是本发明一个实施例提供的一种多媒体数据处理方法的主流程图;
图2A是本发明一个实施例提供的一种多媒体数据处理方法的子流程图;
图2B是本发明一个实施例提供的解析音频流得到文本特征数据的子流程图;
图3A是本发明一个实施例提供的一种多媒体数据处理方法的子流程图;
图3B是本发明一个实施例提供的微表情的示意图;
图3C是本发明一个实施例提供的解析视频流得到表情特征数据的子流程图;
图3D是本发明一个实施例提供的预置微表情组合与情感指数的映射关系的示意图;
图4A是本发明一个实施例提供的一种多媒体数据处理方法的子流程图;
图4B是本发明一个实施例提供的预置关键短句与场景模板的映射关系的示意图;
图4C是本发明一个实施例提供的一种多媒体数据处理方法的子流程图;
图4D是本发明一个实施例提供的预置声明语句与命令序列的映射关系的示意图;
图4E是本发明一个实施例提供的命令序列类型的示意图;
图5A是本发明一个实施例提供的一种多媒体数据处理方法的子流程图;
图5B是本发明一个实施例提供的预置敏感语句与渲染集的映射关系的示意图;
图6是本发明一个实施例提供的一种多媒体数据处理装置结构的示意图;
图7是本发明一个实施例提供的电子设备结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
应了解,在本发明实施例的描述中,多个(或多项)的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到“第一”、“第二”等只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
当今经济全球化,跨地域的商务沟通越发频繁,目前的远程商务会议多通过视频会议系统进行,通过传输线路及多媒体设备,将声音、影像及文件资料互传,实现即时且互动的沟通,随着XR技术的发展以及5G技术高通量低延时确定性网络的出现,为视频通话乃至XR场景带来了高性能的处理潜力,AR、VR、XR技术的发展使得远程通话技术越来越接近出差现场谈话的效果,虽然XR设备的崛起,使得原来一维的语音通话到二维的视频通话,增加了三维空间通话,但是,媒体数据还没有有效的挖掘利用出来,当前的通话主流产品仅仅提供了视频语音通话控制和媒体通道服务,而对通道数据进行多维度分析的产品少之又少,业务层面也需要商务视频会议能够从数据通道中挖掘提供更多有效的会谈辅助信息。
同时,通讯数据通道和数据处理能力的不断发展,通讯运营商提供能力开放平台,引入第三方开发者来提供丰富多彩的业务的想法由来已久,但是在实践中,国内运营商部署的能力开放平台依然没有取得预定的效果,从根本上来讲,这些开放的能力,还是只能针对原有的语音和视频呼叫做一些简单的控制,从用户体验上来说没有产生突破性的改变。
针对现有视频通话产品的不足之处和业务需要,本发明实施例提供了一种多媒体数据处理方法、装置和计算机可读存储介质,首先,获取多媒体数据的音频流和视频流;解析音频流,得到文本特征数据,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据;解析视频流,得到表情特征数据,根据预设的映射关系对照匹配表情特征数据以确定情感指数;基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。基于此,本发明通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
如图1所示,图1是本发明一个实施例提供的一种多媒体数据处理方法的流程图。多媒体数据处理方法包括但不限于如下步骤:
步骤S100,获取多媒体数据的音频流和视频流;
步骤S200,解析音频流,得到文本特征数据,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据;
步骤S300,解析视频流,得到表情特征数据,根据预设的映射关系对照匹配表情特征数据以确定情感指数;
步骤S400,基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。
可以理解的是,远程商务会议采用视频通话的方式,将会议两端的现场多媒体信息交换传输给对方,网络中传输的多媒体包括音频和视频,在本技术方案中,首先获取多媒体数据的音频流和视频流,将音频流中的声音进行解析提取,获得文本特征数据,具体的,音频流中的声音可以是人声,将人声通过语音识别技术转换成文本,即语言文字;类似的,也可以是非人声,根据频谱,识别出其对应的声音类型、名称、特点等,并将声音对应的名称或者动作转换成文本的描述,例如,一种乐器的声音,识别到是钢琴曲,文本特征数据可以包括钢琴曲、钢琴曲的名称、钢琴曲的相关信息等;然后将多媒体数据中的视频流进行解析,得到表情特征数据,表情特征数据包括视频会话中参与人的表情,具体的,通过视频流中连续帧的识别,分析出视频中的人脸,并将人脸表情的动态变化提取出来,针对不同的表情,生成不同的表情特征数据,例如,识别出人脸的愤怒表情,通过眉毛,眼睛,脸庞,鼻子,嘴唇等姿态的组合,生成表情特征数据。
可以理解的是,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据,预设的映射关系是将一些文本特征数据跟话题特征数据设置为映射关系,即将一些文本短句跟话题关键词设置为映射关系,当然,也可以将文本短句跟一些动作命令设置为映射关系,例如,将文本短句匹配为搜索动作,即如果达成匹配,则对匹配到的短句进行检索,将搜索结果作为话题特征数据,当然也可以即将映射关系预设为多级映射关系,即将预置的文本短句跟话题关键词设置为映射关系,进一步将话题关键词跟动作命令设置为映射关系,还可以将动作命令继续跟另一动作命令设置为映射关系,自此,经过多级的映射关系设置,即文本特征数据经过多级映射转化和动作处理后得到话题特征数据,因此,根据预设的映射关系,将文本特征数据中的文本短句跟映射关系中预置的文本短句进行匹配比对,若匹配度达到预设阈值,根据预设的映射关系,将文本特征数据中的文本短句匹配到的预置文本短句所映射的关键词确定为话题特征数据,具体的,文本特征数据可以包含一整篇文本,在进行文本匹配时,将文本特征数据里的文本分散为短句或者短词,分别将分散的短句或者短词跟预置的文本短句进行匹配,预设阈值可以理解为文本特征数据里分散的短句或者短词文本短句有多少比例跟预置的文本短句达成匹配,可以通过设置不同颗粒度的数值,逐步测试合适的预设阈值范围,也可以通过识别的效果判断阈值设置是否合适。根据预设的映射关系对照匹配表情特征数据以确定情感指数,同样的,预设的映射关系是将一些表情特征数据跟情感指数设置为映射关系,即将视频流中提取出来的表情跟情感指数设置为映射关系,情感指数可以根据颜色、数值、图形化等形式表示,例如,将情绪从愤怒到开心设置为0-100分,0分为非常愤怒,100分为非常开心,根据不同的表情,设置对应的情感指数,即可将视频流中提取出来的表情匹配到对应的分数上,同样的,可以通过颜色表示情感指数,不同的颜色对应不同的情绪,通过色彩心理学,因为暖色代表豪放、阳光、热情、热烈、活泼,冷色代表婉约、阴柔、冷静、文雅,因此,可以设置红色代表热烈、轰轰烈烈、冲动;橙色代表快乐、幸福;黄色代表骄傲;绿色代表平和;蓝色代表冷漠、平静、理智、冷酷;紫色代表梦幻;黑色和白色代表恐怖、绝望、悲哀、崇高;灰色代表冷静,将不同的情绪表情根据色彩心理学映射为不同的颜色,根据视频流中提取出来的表情,将之跟预置的表情做对照匹配,若匹配度达到预设阈值,根据预设的映射关系,将表情特征数据中的表情匹配到的预置表情所映射的颜色确定为情感指数;但同样,使用图形化也是类似的方式,用图形的圆满度来表示情绪的变化,在此不再做举例。表情特征数据可以是包含一段时间内的表情变化,可能包括多个表情组合,预设阈值可以理解为将此多个表情组合跟预置的表情做比对匹配,有多少比例的表情跟预置的表情达成匹配,可以通过设置不同颗粒度的数值,逐步测试合适的预设阈值范围,也可以通过识别的效果反向判断阈值设置是否合适。
可以理解的是,基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。文本特征数据音频流中的语音转化得到的语音文本,情感指数为会谈人的情绪指数,话题特征数据是根据语音文本与预置文本进行比对匹配,根据映射关系,将匹配的预置文本所映射的话题特征数据,或者将匹配的预置文本经过多级映射并执行动作之后得到的话题特征数据,因此,基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染,将文本特征数据渲染到视频中,成为会议交谈的字幕,将情感指数渲染到视频中,实时展现参会人员的情绪状态,便于及时根据参会人员的情绪调整话题或者会议内容,将话题特征数据渲染到视频中,是对会议交谈关键信息的二次加工,便于提高会议交谈的效率,或者因为参会人员的知识水平参差不齐或者信息不对称的原因,通过关键信息的二次加工和渲染,及时显示相关话题的相关内容,使参会人员及时把握会议内容,例如,将从音频流得到的文本特征数据,将文本特征数据经过映射或者多级映射得到的二次加工内容的话题特征数据,和视频流中得到的情感指数,分别跟多媒体数据进行渲染,使得视频流中不只包含会议的画面内容,还包括了多维度的辅助信息,将此视频流返回给媒体面路由,经过传输系统送到会议现场,在会议现场通过XR设备,将多媒体数据进行解析和呈现,按照3Gpp规范,本技术方案可以部署在路由或媒体处理网元,也可以独立部署,参会人员可以看到原有视频信息,可以听到原有的音频信息,同时,可以看到相关参会人的语音字幕,看到参会人的情感指数,可以即时看到相关话题的总结或者相关信息呈现,当会议在讨论金融安全的话题时,从文本特征数据中分散出若干包含金融相关的短句,根据预设的金融相关短句,例如股市,上市公司名称,上市公司财报,保险公司,证监会等,将文本特征数据中分散出的若干包含金融相关的短句与预设的金融短句进行匹配,当到达预设阈值时,例如一定时间内达到10个短句或者关键词的时,即认为达到了预设的阈值,即对匹配成功的短句或者关键词进行映射,映射内容可以是对应的话题关键词,也可以是经过多级动作得到的内容,例如匹配成功的关键词是上市公司名称和财务数据,预置短句映射的是动作,同时动作内容为“检索其近2年的收入数据”,因此,基于匹配到的关键词上市公司名称和财务数据,则映射的内容为检索对应上市公司近2年的收入数据,在会议现场,立刻会在空间中展现出对应上市公司近2年的收入数据,使参会人员更高效的把握话题内容,需要说明的是,可以预设针对各种场景和话题的映射关系,映射关系也可以是多级映射,同时,映射关系可以是关键词,也可以包含执行动作,同样包含多级动作,映射关系经过大量的训练和积累可以不断优化,达到更准确和智能,也可以通过参会人员现场视觉关注内容停留的时间长短,判断映射关系的关联准确度和智能性,实现自动化的优化映射关系和自动录入更新映射关系。
可以理解的是,映射关系包括至少之一:预置微表情组合与情感指数的映射关系;预置关键短句与场景模板的映射关系;预置声明语句与命令序列的映射关系;预置敏感语句与渲染集的映射关系。设置多种维度的映射关系,可以使信息处理时,依照不同维度的信息,采用不同维度的映射关系进行数据处理。
如图2A所示,步骤S200可以包括但不限于如下子步骤:
步骤S2001,对音频流进行频率特征学习,得到频率特征频段;
步骤S2002,利用频率特征频段对音频流过滤,得到若干特征音频流;
步骤S2003,对特征音频流进行语音识别,得到字幕文本;
步骤S2004,对特征音频流进行音强分析,得到音强值,当音强值达到预设阈值,则输出字幕附加文本。
可以理解的,如图2B所示,对音频流进行频率特征学习,即学习不同人声的频率特征,得到频率特征频段,即不同人声的频率特征所在的频段,通过特征数据,对音频流进行过滤,得到若干特征音频流,即从音频流中将人声分离出来,并且进一步将人声中不同人的声音分离开,得到若干路人声的音频信息,对特征音频流进行语音识别,得到若干人声对应的字幕文本,对音频流进行音强分析,得到音强值,具体的,通过分析人声音频的音调高度或者声音大小,当音强值超过预设阈值时,则输出若干路人声对应的字幕附加文本,即音调或者音量超过预设值的短句或者关键词。
如图3A所示,步骤S300可以包括但不限于如下子步骤:
步骤S3001,将视频流输入到预置的深度学习模型,识别获得面部区域坐标;
步骤S3002,根据面部区域坐标,对视频流中面部区域的连续帧进行微表情识别分块,得到微表情组合。
如图3B所示,面部表情涉及多个部位的动作,其中“微表情”自然对应着的是“宏表情”。宏表情在我们平时比较容易观察到的,面部表情持续时间在0.5-4秒范围之内,且参与面部表情动作的面部肌肉群收缩或舒张幅度较大。微表情不但不受思维意识控制,而且持续的时间非常短,人的意识还没有来得及去控制它,就已经被暴露出来,所以它一定程度上反应了真实的情绪。正是由于微表情的这个特点,它在刑侦、安全、司法、谈判等领域都有非常重要的应用。微表情是一种特殊的面部表情,与普通的表情相比,微表情主要有以下特点:
1.持续时间短,通常只有1/25s~1/3s;
2.动作强度低,难以察觉;
3.在无意识状态下产生,通常难以掩饰或伪装;
4.对微表情的分析通常需要在视频中,而普通表情在图像中就可以分析。
微表情的识别,它最开始是通过人工训练的,大概训练一个半小时,可以提高到30%-40%的准确性,但心理学家论证了人工识别最高不会超过47%。后来随着心理学实验逐渐演进到计算机应用上面,微表情有了AU(Action Units)组合,例如,如果是高兴,宏表情的高兴是AU6+AU12,微表情是AU6或者是AU12,或者是AU6+AU12。第二是微表情运动,它是局部的肌肉块运动,而不是两个肌肉块同时运动,比如高兴,运动的是AU6或者是AU12。但如果强度比较大,可能会出现AU6和AU12同时发生的情况。另外宏表情和微表情有一些联系,就是微表情的AU可能是宏表情AU的子集,因此,通过微表情识别技术MER(Microexpression recognition)可以从视频中提取出微表情。通过微表情组合,即可准确描述参会人员的表情变化,侧面反应出参会人员的情绪变化,可以进一步分析出参会人员对讨论话题的兴趣程度。因此,如图3C所示,将视频流输入到预置的深度学习模型,具体的,可以采用卷积神经网络(Convolutional Neural Networks,CNN)模型,先进行学习训练,得到成熟的CNN模型,将视频流输入到CNN模型,进行人脸识别,识别获得面部区域坐标,获得视频中各个会谈人员面部的区域坐标,使用MER分块器,对视频人脸区域的连续帧进行MER分块,进一步MER序列解析,对连续时序图片的变化进行输出,得到微表情AU的组合序列,即微表情组合。
可以理解的是,如图3D所示,预置微表情组合与情感指数的映射关系,即微表情组合由若干微表情组成,例如,微表情1、微表情2和微表情3,其中,微表情1为AU6,微表情2为AU7,微表情3为AU12,即微表情组合为AU6+AU7+AU12,同样的,可以对微表情进行排列组合,得到微表情组合的集合,根据微表情集合所对应表达的情绪,映射为对应的情感指数,因此,通过对视频流中的参会人员的表情提取,得到微表情组合,并根据预置为表情组合的映射关系,得到情感指数,情感指数可以根据颜色、数值、图形化等形式表示,例如,将情绪从愤怒到开心设置为0-100分,0分为非常愤怒,100分为非常开心,根据不同的表情,设置对应的情感指数,即可将视频流中提取出来的表情匹配到对应的分数上,同样的,可以通过颜色表示情感指数,不同的颜色对应不同的情绪,通过色彩心理学,因为暖色代表豪放、阳光、热情、热烈、活泼,冷色代表婉约、阴柔、冷静、文雅,因此,可以设置红色代表热烈、轰轰烈烈、冲动;橙色代表快乐、幸福;黄色代表骄傲;绿色代表平和;蓝色代表冷漠、平静、理智、冷酷;紫色代表梦幻;黑色和白色代表恐怖、绝望、悲哀、崇高;灰色代表冷静,将不同的微表情组合根据色彩心理学映射为不同的颜色,即可将微表情组合映射为情感指数。
如图4A所示,步骤S200还包括但不限于如下子步骤:
步骤S2005,将字幕文本通过自然语言处理,获得短句序列;
步骤S2006,利用映射关系,将短句序列与预置关键短句进行对照匹配,得到对应的场景模板;
步骤S2007,依据对应的场景模板,对字幕文本、字幕附加文本进行深层处理获得话题特征数据。
可以理解的是,将字幕文本进行语义处理,具体的,通过自然语言处理(Naturallanguage processing),将字幕文本按照语义分割成若干短句序列,利用映射关系,将短句序列与预置关键短句进行对照匹配,当匹配度达到预设阈值时,得到对应的场景模板。
如图4B所示,预置关键短句与场景模板的映射关系,至少一个预置关键短句与一个场景映射,例如,预置一个金融领域的话题场景,预置的关键短句为上证指数,二级市场,上海证券交易所,深圳证券交易所,两市资金流入流出,A股,6个预置关键短句与金融场景映射,将视频会议音频流提取出来的字幕文本按照语义分割成若干短句序列,将此若干短句序列跟6个预置关键短句进行比对匹配,计算相似度,当相似度达到预设阈值时,判断认为当前会议话题是金融话题,则进入金融场景。依据对应的场景模板,对字幕文本、字幕附加文本进行深层处理获得话题特征数据。具体的,在金融场景下,根据预置的映射关系,进一步将字幕文本和字幕附加文本进行语义分割,与预置的语句进行比对,得到对数据加工的动作指令,通过映射的动作,将字幕文本和字幕附加文本加工进行二次加工,将二次加工结果输出渲染。需要说明的是,阈值可以根据场景匹配的严格程度和预置关键短句的数量来设置,例如,同一个场景下,预置关键短句数量越多,要求达到的匹配度越高,则阈值越高,越难以与场景匹配,但是准确度会越高,因此,可以通过大量的数据训练,找到合适的阈值范围,兼顾准确度和实用性。需要说明的是,本方案中预置多种场景,多个预置关键短句映射一个场景,可以设置不同维度,不同级别的场景,来应用于不同类型的会议主题。
如图4C所示,步骤S2007还包括但不限于如下子步骤:
步骤S20071,利用映射关系,将短句序列和字幕附加文本与预置声明语句进行对照匹配,得到对应的命令序列;
步骤S20072执行命令序列,获得话题特征数据。
可以理解的是,利用映射关系,即预置声明语句与命令序列的映射关系,将短句序列和字幕附加文本与预置声明语句进行对照匹配,得到对应的命令序列.
如图4D所示,预置声明语句与命令序列的映射关系,至少一个预置声明语句与一个命令序列映射,命令序列包含一个动作组,即若干数据处理动作,例如,预置一个5G通信领域的话题场景,预置的关键短句为5G组网,非独立组网NSA,独立组网SA,控制承载分离,移动边缘计算,网络切片,6个预置关键短句与5G通信场景映射,将视频会议音频流提取出来的字幕文本按照语义分割成若干短句序列,将此若干短句序列跟6个预置关键短句进行比对匹配,计算相似度,当相似度达到预设阈值时,判断认为当前会议话题是5G通信话题,则进入5G通信场景,在5G通信场景内,对字幕文本、字幕附加文本做进一步的匹配映射,具体的,利用预置声明语句与命令序列的映射关系,将短句序列和字幕附加文本与预置声明语句进行对照匹配,得到对应的命令序列,例如,预置声明语句为5G专利数量,5G标准必要专利,5G专利持有量,5G技术公司,5G市场规模,5个预置声明语句,同时,5个预置声明语句所映射的命令序列可以设置为:
动作1:搜索引擎检索预置声明语句;
动作2:提取检索结果前五条网址的内容简介或者关键词;
动作3:在专利数据库检索网页中提取的关键词;
动作4:将检索结果去重后输出。
命令序列包含4个动作,通过此映射关系,将若干短句序列与6个5G通信场景下的5个预置声明语句进行比对匹配,当相似度达到预设值时,即认为匹配成功,因此执行预置声明语句所映射的命令序列,即4个动作,最后输出动作结果。需要说明的是,阈值可以根据匹配的严格程度和预置声明语句的数量来设置,例如,同一个命令序列下,预置声明语句数量越多,要求达到的匹配度越高,则阈值越高,越难以与命令序列匹配,但是准确度会越高,因此,可以通过大量的数据训练,找到合适的阈值范围,兼顾准确度和实用性。需要说明的是,本方案中预置多种命令序列,多个命令序列映射一个命令序列,可以设置不同维度,不同级别的命令序列,来应用于不同类型的数据二级加工场景。
如图4E所示,步骤S20071还包括但不限于如下至少一种动作:
当命令序列包含在线检索指令,则检索在线数据库,得到在线检索数据集;
当命令序列包含离线检索指令,则检索离线数据库,得到离线检索数据集;
当命令序列包含数据加工指令,则对数据进行二次加工,得到二次加工数据。
在线检索数据库,可以采用谷歌搜索引擎、百度搜索引擎、必应搜索引擎、搜狗搜索引擎、好搜搜索引擎、神马搜索搜索引擎、雅虎搜索引擎中的一种或多种结合,当然也可以使用细分专业领域的搜索引擎,例如,专利检索领域的专用数据库,文献检索领域的专用数据库等;离线数据库是本地数据库,可以为局域网内的内部数据库,针对本技术方案所使用的领域或用户自有数据库,可以灵活设置;当命令序列包含数据加工指令,则对数据进行二次加工,二次加工的方法依然可以采用映射关系,进行多重映射,对数据进行多次多维度的处理。
如图5A所示,步骤S400还包括但不限于如下子步骤:
步骤S4001,利用字幕文本,获得特征音频流启动时对应的声音时间序列;
步骤S4002,利用微表情组合,获得嘴型表情启动时对应的嘴型时间序列;
步骤S4003,判断声音时间序列和嘴型时间序列的一致性,将字幕文本、情感指数和面部区域坐标在时序上对齐;
步骤S4004,利用映射关系,将短句序列和预置敏感语句进行对照匹配,得到对应的渲染集;
步骤S4005,根据渲染集的配置,将字幕文本、情感指数和话题特征数据与视频流渲染。
可以理解的是,利用字幕文本,获得特征音频流启动时对应的声音时间序列,字幕文本提取时带有时间标记,可以确定文本所对应的时间;利用微表情组合,获得嘴型表情启动时对应的嘴型时间序列,从视频流中提取微表情时,根据时间序列顺序提取,因此微表情组合也带有时间标记,同时,因为视频流和音频流是同一多媒体源,具有一致的时序,因此,在数据处理时,由于音频流和视频流分路处理,并且经过二次数据处理,可能会出现数据时序不同步,因此,判断声音时间序列和嘴型时间序列的一致性,将字幕文本、情感指数和面部区域坐标在时序上对齐,字幕文本对应的是声音时间序列,情感指数对应的是嘴型时间序列,面部区域坐标对应的是嘴型时间序列,当判断声音时间序列和嘴型时间序列一致时,则字幕文本、情感指数和面部区域坐标在时序上也是对齐的。
如图5B所示,利用映射关系,将短句序列和预置敏感语句进行对照匹配,得到对应的渲染集,预置敏感语句与渲染集设置有映射关系,至少一句预置敏感语句与渲染集映射,根据使用场景的需要,可以预设不同维度的预置敏感语句作为匹配参照。
渲染集的配置包括渲染坐标、渲染时间、渲染颜色主题至少之一,不同的渲染集,在将字幕文本、情感指数和话题特征数据与视频流渲染时,会呈现出不同的视觉效果。例如,在XR会议中,根据渲染集的不同配置,字幕文本、情感指数和话题特征数据与视频流渲染后,会议参与人会在不同的人脸庞附近看到不同颜色的字幕文本,不同风格的情感指数,不同展示时间的话题特征数据。参会人员在XR设备中可以看到不同会谈人的附近区域,有显示板或者弹幕弹出各自的会谈字幕,看到参与人的情感指数的显示,会谈期间的关键信息经过二次加工后会反馈到视觉空间中同时,不同级别的关键信息显示时长、字体颜色、显示位置均表现不同,呈现的方式可以是图标或者数字,也可以是其他设计,同时,可以通过管理界面,对不同的关键词句进行分组,分组后的集合可以设置响应的处理加工动作,可以进行不同的渲染效果设置。
如图6所示,本发明实施例还提供了一种多媒体数据处理装置,可以通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
该多媒体数据处理装置包括:
音频处理模块501,用于接收音频数据,将音频流中的声音进行解析提取,获得文本特征数据;
视频处理模块502,用于接收视频数据,对视频流进行解析,得到表情特征数据,表情特征数据包括视频会话中参与人的表情,通过视频流中连续帧的识别,分析出视频中的人脸,并将人脸表情的动态变化提取出来,针对不同的表情,生成不同的表情特征数据;
映射关系模块503,根据预设的映射关系,将文本特征数据转换为话题特征数据;将表情特征数据转换为情感指数;
渲染模块504,将文本特征数据、情感指数和话题特征数据渲染输出。
在一实施方式中,音频处理模块接收音频数据,将音频流中的声音进行解析提取,获得文本特征数据;视频处理模块接收视频数据,对视频流进行解析,得到表情特征数据,表情特征数据包括视频会话中参与人的表情,通过视频流中连续帧的识别,分析出视频中的人脸,并将人脸表情的动态变化提取出来,针对不同的表情,生成不同的表情特征数据;映射关系模根据预设的映射关系,将文本特征数据转换为话题特征数据,将表情特征数据转换为情感指数;渲染模块将文本特征数据、情感指数和话题特征数据渲染输出。基于此,本发明通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
如图7所示,本发明实施例还提供了一种电子设备。可以通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
该电子设备包括:
处理器,可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器中,并由处理器来调用执行本申请实施例的目标数据的排序方法;
输入/输出接口,用于实现信息输入及输出;
通信接口,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线,在设备的各个组件(例如处理器、存储器、输入/输出接口和通信接口)之间传输信息;
其中处理器、存储器、输入/输出接口和通信接口通过总线实现彼此之间在设备内部的通信连接。
在一实施方式中,该电子设备包括:一个或多个处理器和存储器,图7中以一个处理器及存储器为例。处理器和存储器可以通过总线或者其他方式连接,图7中以通过总线连接为例。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序,如上述本发明实施例中的多媒体数据处理方法。处理器通过运行存储在存储器中的非暂态软件程序以及程序,从而实现上述本发明实施例中的多媒体数据处理方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储执行上述本发明实施例中的多媒体数据处理方法所需的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该多媒体数据处理装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现上述本发明实施例中的多媒体数据处理方法所需的非暂态软件程序以及程序存储在存储器中,当被一个或者多个处理器执行时,执行上述本发明实施例中的多媒体数据处理方法,例如,执行以上描述的图1中的方法步骤S100至步骤S400,图2A中的方法步骤S2001至步骤S2004,图3A中的方法步骤S3001至步骤S3002,图4A中的方法步骤S2005至步骤S2007。获取多媒体数据的音频流和视频流;解析音频流,得到文本特征数据,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据;解析视频流,得到表情特征数据,根据预设的映射关系对照匹配表情特征数据以确定情感指数;基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。基于此,本发明通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
此外,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行程序,该计算机可执行程序被一个或多个控制处理器执行,例如,被图7中的一个处理器执行,可使得上述一个或多个处理器执行上述本发明实施例中的多媒体数据处理方法,例如,执行以上描述的图1中的方法步骤S100至步骤S400,图2A中的方法步骤S2001至步骤S2004,图3A中的方法步骤S3001至步骤S3002,图4A中的方法步骤S2005至步骤S2007。获取多媒体数据的音频流和视频流;解析音频流,得到文本特征数据,根据预设的映射关系对照匹配文本特征数据以确定话题特征数据;解析视频流,得到表情特征数据,根据预设的映射关系对照匹配表情特征数据以确定情感指数;基于文本特征数据、情感指数和话题特征数据对多媒体数据进行渲染。基于此,本发明通过对多人商谈通话的多媒体信息进行解析提取、智能分析和渲染增强,在现有通话产品的语音和视频的基础上,挖掘出多维度的价值信息,包括语音文本、情感指数,并且将语音文本的内容根据预设的映射关系进一步二次加工,使得通话产品能够呈现更丰富智能的信息,同时,通过预设不同的映射关系,能够灵活的处理不同的商务场景和会谈内容,扩展技术方案的应用领域,可以有效的挖掘通话类产品的潜在价值,给通话商谈带来全新的体验,增加商谈业务使用者的会谈竞争力,提高决策效率,赢得更多的话语权,有效抓住商机。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读程序、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读程序、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的共享条件下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本发明权利要求所限定的范围内。

Claims (13)

1.一种多媒体数据处理方法,其特征在于,包括:
获取多媒体数据的音频流和视频流;
解析所述音频流,得到文本特征数据,根据预设的映射关系对照匹配所述文本特征数据以确定话题特征数据;
解析所述视频流,得到表情特征数据,根据预设的映射关系对照匹配所述表情特征数据以确定情感指数;
基于所述文本特征数据、所述情感指数和所述话题特征数据对所述多媒体数据进行渲染。
2.根据权利要求1所述的方法,其特征在于,所述映射关系包括如下至少之一:
预置微表情组合与情感指数的映射关系;
预置关键短句与场景模板的映射关系;
预置声明语句与命令序列的映射关系;
预置敏感语句与渲染集的映射关系。
3.根据权利要求2所述的方法,其特征在于,所述解析所述音频流,得到文本特征数据,包括:
对所述音频流进行频率特征学习,得到频率特征频段;
利用所述频率特征频段对所述音频流过滤,得到若干特征音频流;
对所述特征音频流进行语音识别,得到字幕文本;
对所述特征音频流进行音强分析,得到音强值,当所述音强值达到预设阈值,则输出字幕附加文本。
4.根据权利要求3所述的方法,其特征在于,所述解析所述视频流,得到表情特征数据,包括:
将所述视频流输入到预置的深度学习模型,识别获得面部区域坐标;
根据所述面部区域坐标,对所述视频流中面部区域的连续帧进行微表情识别分块,得到微表情组合。
5.根据权利要求4所述的方法,其特征在于,所述根据预设的映射关系对照匹配所述表情特征数据以确定情感指数,包括:
利用所述映射关系,将所述微表情组合与所述预置微表情组合进行对照匹配,得到对应的情感指数。
6.根据权利要求3所述的方法,其特征在于,所述根据预设的映射关系对照匹配所述文本特征数据以确定话题特征数据,包括:
将所述字幕文本通过自然语言处理,获得短句序列;
利用所述映射关系,将所述短句序列与所述预置关键短句进行对照匹配,得到对应的所述场景模板;
依据对应的所述场景模板,对所述字幕文本、所述字幕附加文本进行深层处理获得话题特征数据。
7.根据权利要求6所述的方法,其特征在于,所述依据对应的所述场景模板,对所述字幕文本、所述字幕附加文本进行深层处理获得话题特征数据,包括:
利用所述映射关系,将所述短句序列和所述字幕附加文本与所述预置声明语句进行对照匹配,得到对应的所述命令序列;
执行所述命令序列,获得话题特征数据。
8.根据权利要求7所述的方法,其特征在于,所述执行所述命令序列,获得话题特征数据,包括如下至少之一:
当所述命令序列包含在线检索指令,则检索在线数据库,得到在线检索数据集;
当所述命令序列包含离线检索指令,则检索离线数据库,得到离线检索数据集;
当所述命令序列包含数据加工指令,则对数据进行二次加工,得到二次加工数据。
9.根据权利要求4至8任一所述的方法,其特征在于,所述基于所述文本特征数据、所述情感指数和所述话题特征数据对所述多媒体数据进行渲染,包括:
利用所述字幕文本,获得所述特征音频流启动时对应的声音时间序列;
利用所述微表情组合,获得嘴型表情启动时对应的嘴型时间序列;
判断所述声音时间序列和所述嘴型时间序列的一致性,将所述字幕文本、所述情感指数和所述面部区域坐标在时序上对齐;
利用所述映射关系,将所述短句序列和所述预置敏感语句进行对照匹配,得到对应的所述渲染集;
根据所述渲染集的配置,将所述字幕文本、所述情感指数和话题特征数据与所述视频流渲染。
10.根据权利要求9所述的方法,其特征在于,所述渲染集的配置,包括如下至少之一:
渲染坐标;渲染时间;渲染颜色主题。
11.一种多媒体数据处理装置,包括:
音频处理模块,用于接收并解析音频流,获得文本特征数据;
视频处理模块,用于接收并解析视频流,得到表情特征数据;
映射关系模块,用于处理所述文本特征数据得到话题特征数据,处理所述表情特征数据得到情感指数;
渲染模块,用于将所述文本特征数据、所述话题特征数据和所述情感指数与所述视频流渲染。
12.一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至10中任意一项所述的多媒体数据处理方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行程序,所述计算机可执行程序用于使计算机执行如权利要求1至10任意一项所述的多媒体数据处理方法。
CN202210722924.7A 2022-06-24 2022-06-24 多媒体数据处理方法、装置和计算机可读存储介质 Pending CN117319701A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210722924.7A CN117319701A (zh) 2022-06-24 2022-06-24 多媒体数据处理方法、装置和计算机可读存储介质
PCT/CN2023/101786 WO2023246888A1 (zh) 2022-06-24 2023-06-21 多媒体数据处理方法、装置和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210722924.7A CN117319701A (zh) 2022-06-24 2022-06-24 多媒体数据处理方法、装置和计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN117319701A true CN117319701A (zh) 2023-12-29

Family

ID=89235961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210722924.7A Pending CN117319701A (zh) 2022-06-24 2022-06-24 多媒体数据处理方法、装置和计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN117319701A (zh)
WO (1) WO2023246888A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103365959A (zh) * 2013-06-03 2013-10-23 深圳市爱渡飞科技有限公司 一种语音搜索方法及装置
CN106161873A (zh) * 2015-04-28 2016-11-23 天脉聚源(北京)科技有限公司 一种视频信息提取推送方法及系统
CN109886258A (zh) * 2019-02-19 2019-06-14 新华网(北京)科技有限公司 提供多媒体信息的关联信息的方法、装置及电子设备
CN110365933A (zh) * 2019-05-21 2019-10-22 武汉兴图新科电子股份有限公司 一种基于ai的视频会议会议纪要在线生成装置及方法
CN110414465B (zh) * 2019-08-05 2023-11-10 北京深醒科技有限公司 一种视频通讯的情感分析方法
CN114095782A (zh) * 2021-11-12 2022-02-25 广州博冠信息科技有限公司 一种视频处理方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
WO2023246888A1 (zh) 2023-12-28

Similar Documents

Publication Publication Date Title
Gleason et al. Making memes accessible
CN110781347B (zh) 一种视频处理方法、装置、设备以及可读存储介质
CN110020437B (zh) 一种视频和弹幕相结合的情感分析及可视化方法
KR101516995B1 (ko) 컨텍스트 기반 브이오디 검색 시스템 및 이를 이용한 브이오디 검색 방법
Carter et al. Linking the verbal and visual: new directions for corpus linguistics
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN111506794A (zh) 一种基于机器学习的谣言管理方法和装置
CN112287175B (zh) 一种视频高亮片段预测方法和系统
CN111599359A (zh) 人机交互方法、服务端、客户端及存储介质
CN113395578A (zh) 一种提取视频主题文本的方法、装置、设备及存储介质
CN111914760B (zh) 一种在线课程视频资源构成的解析方法及系统
US11361759B2 (en) Methods and systems for automatic generation and convergence of keywords and/or keyphrases from a media
Bodi et al. Automated Video Description for Blind and Low Vision Users
CN113642536B (zh) 数据处理方法、计算机设备以及可读存储介质
CN113301382B (zh) 视频处理方法、设备、介质及程序产品
KR20210047467A (ko) 이미지 다중 캡션 자동 생성 방법 및 시스템
CN111800650B (zh) 视频配乐方法、装置、电子设备及计算机可读介质
KR101634068B1 (ko) 교육용 컨텐츠맵 생성방법 및 장치
CN116977992A (zh) 文本信息识别方法、装置、计算机设备和存储介质
US20240037941A1 (en) Search results within segmented communication session content
CN117319701A (zh) 多媒体数据处理方法、装置和计算机可读存储介质
CN116955707A (zh) 内容标签的确定方法、装置、设备、介质及程序产品
CN115171673A (zh) 一种基于角色画像的交流辅助方法、装置及存储介质
Rimle et al. Enriching video captions with contextual text
CN112069836A (zh) 谣言识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication