CN111274370A - 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 - Google Patents
基于在线问答活动的弹幕答案分发方法、服务器及存储介质 Download PDFInfo
- Publication number
- CN111274370A CN111274370A CN202010035547.0A CN202010035547A CN111274370A CN 111274370 A CN111274370 A CN 111274370A CN 202010035547 A CN202010035547 A CN 202010035547A CN 111274370 A CN111274370 A CN 111274370A
- Authority
- CN
- China
- Prior art keywords
- answer
- bullet screen
- screen display
- display mode
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000000694 effects Effects 0.000 title claims abstract description 42
- 238000012216 screening Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 40
- 238000012795 verification Methods 0.000 claims description 30
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 230000008451 emotion Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 230000008909 emotion recognition Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4756—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于在线问答活动的弹幕答案分发方法,应用于服务器,该方法包括获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,将所有第一语音数据转化成第一文本数据,从第一文本数据中筛选出疑问句及陈述句,筛选出目标问题及目标答案,从目标问题到目标问题对应的上传时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,创建答案弹幕展示方式,接收客户端上传的弹幕展示请求,将用户属性信息输入弹幕展示方式识别模型输出弹幕展示方式,根据弹幕展示方式向客户端展示答案弹幕。本发明能够根据用户的不同需求,自动化选择弹幕展示方式进行答案弹幕分发,提高用户的观看体验。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于在线问答活动的弹幕答案分发方法、服务器及存储介质。
背景技术
视频节目现在非常受观众欢迎,商家为了吸引观众,喜欢在视频中做吸引人的节目,其中就包括问题抢答活动。而现在人们越来越喜欢通过弹幕的形式发布对所观看视频相关的看法、评论及观点,在视频节目中,主持人经常会在视频中提问,用户也可以通过弹幕的形式回答主持人提出的问题。
但是,不同的用户根据主持人提出的问题做出的反应及发布的弹幕内容会有所不同,包括了正确答案弹幕、错误答案弹幕及非答案弹幕。因此在主持人提出问题后,假如用户打开了弹幕功能,就会在屏幕上显示大量的弹幕,且不进行分类,用户无法根据自身需求选择弹幕展示的方式,进而影响了用户观看体验。
因此,如何根据用户的不同需求,自动化选择弹幕展示方式进行答案弹幕分发,提高用户的观看体验已成为亟需解决的技术问题。
发明内容
本发明的主要目的在于提供一种基于在线问答活动的弹幕答案分发方法、服务器及存储介质,旨在解决如何根据用户的不同需求,自动化选择弹幕展示方式进行答案弹幕分发,提高用户的观看体验的问题。
为实现上述目的,本发明提供的一种基于在线问答活动的弹幕答案分发方法,应用于服务器,该方法包括:
获取步骤:获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案;
处理步骤:将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕;
建立步骤:根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式;及
展示步骤:接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
优选地,所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值时,结束训练,得到所述弹幕展示方式识别模型。
优选地,在所述展示步骤之后,该方法还包括判断步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
优选地,该方法还包括分配步骤:
为所述非答案弹幕、正确答案弹幕及错误答案弹幕各自对应的弹幕展示框分别分配唯一的预设展示颜色。
优选地,该方法还包括设置步骤:
实时计算每个用户对应的所述输入答案在相同预设时长内的答案准确率,并设置用户对应的所述弹幕展示框的大小随着答案准确率的提升而变大。
优选地,该方法还包括监测步骤:
通过浏览器监测用户是否通过搜索引擎搜索所述目标问题对应的目标答案,并将该目标答案作为输入答案,若是,则不将本次的输入答案作为计算所述答案准确率的计算依据。
为实现上述目的,本发明还进一步提供一种服务器,所述服务器包括存储器和处理器,所述存储器上存储有基于在线问答活动的弹幕答案分发程序,所述基于在线问答活动的弹幕答案分发程序被所述处理器执行时实现如下步骤:
获取步骤:获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案;
处理步骤:将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕;
建立步骤:根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式;及
展示步骤:接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
优选地,所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值时,结束训练,得到所述弹幕展示方式识别模型。
优选地,所述基于在线问答活动的弹幕答案分发程序被所述处理器执行时还实现如下步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
为实现上述目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于在线问答活动的弹幕答案分发程序,所述基于在线问答活动的弹幕答案分发程序可被一个或者多个处理器执行,以实现如上所述的基于在线问答活动的弹幕答案分发方法的步骤。
本发明提出的基于在线问答活动的弹幕答案分发方法、服务器及存储介质,通过获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,将所有第一语音数据转化成第一文本数据,从第一文本数据中筛选出疑问句及陈述句,筛选出目标问题及目标答案,从目标问题到目标问题对应的上传时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,创建答案弹幕展示方式,接收客户端上传的弹幕展示请求,将用户属性信息输入弹幕展示方式识别模型输出弹幕展示方式,根据弹幕展示方式向客户端展示答案弹幕。本发明能够根据用户的不同需求,自动化选择弹幕展示方式进行答案弹幕分发,提高用户的观看体验。
附图说明
图1为本发明服务器较佳实施例的应用环境图;
图2为图1中基于在线问答活动的弹幕答案分发程序较佳实施例的程序模块示意图;
图3为本发明基于在线问答活动的弹幕答案分发方法较佳实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本发明的目的、技术本实施例及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术本实施例可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术本实施例的结合出现相互矛盾或无法实现时应当认为这种技术本实施例的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种服务器1。
所述服务器1包括,但不仅限于,存储器11、处理器12及网络接口13。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是服务器1的内部存储单元,例如该服务器1的硬盘。存储器11在另一些实施例中也可以是服务器1的外部存储设备,例如该服务器1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器11还可以既包括服务器1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于服务器1的应用软件及各类数据,例如基于在线问答活动的弹幕答案分发程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行基于在线问答活动的弹幕答案分发程序10等。
网络接口13可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该服务器与其他电子设备之间建立通信连接。
客户端可以是桌上型计算机、笔记本、平板电脑、手机等。
网络可以为互联网、云网络、无线保真(Wi-Fi)网络、个人网(PAN)、局域网(LAN)和/或城域网(MAN)。网络环境中的各种设备可以被配置为根据各种有线和无线通信协议连接到通信网络。这样的有线和无线通信协议的例子可以包括但不限于以下中的至少一个:传输控制协议和互联网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、文件传输协议(FTP)、ZigBee、EDGE、IEEE 802.11、光保真(Li-Fi)、802.16、IEEE 802.11s、IEEE 802.11g、多跳通信、无线接入点(AP)、设备对设备通信、蜂窝通信协议和/或蓝牙(BlueTooth)通信协议或其组合。
可选地,该服务器1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以称为显示屏或显示单元,用于显示在服务器1中处理的信息以及用于显示可视化的用户界面。
图1仅示出了具有组件11-13以及基于在线问答活动的弹幕答案分发程序10的服务器1,本领域技术人员可以理解的是,图1示出的结构并不构成对服务器1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在本实施例中,图1的基于在线问答活动的弹幕答案分发程序10被处理器12执行时,实现以下步骤:
获取步骤:获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案;
处理步骤:将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕;
建立步骤:根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式;及
展示步骤:接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
在另一实施例中,在所述展示步骤之后,该方法还包括判断步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
在另一实施例中,该方法还包括分配步骤:
为所述非答案弹幕、正确答案弹幕及错误答案弹幕各自对应的弹幕展示框分别分配唯一的预设展示颜色。
在另一实施例中,该方法还包括设置步骤:
实时计算每个用户对应的所述输入答案在相同预设时长内的答案准确率,并设置用户对应的所述弹幕展示框的大小随着答案准确率的提升而变大。
在另一实施例中,该方法还包括监测步骤:
通过浏览器监测用户是否通过搜索引擎搜索所述目标问题对应的目标答案,并将该目标答案作为输入答案,若是,则不将本次的输入答案作为计算所述答案准确率的计算依据。
关于上述步骤的详细介绍,请参照下述图2关于基于在线问答活动的弹幕答案分发程序10实施例的程序模块示意图及图3关于基于在线问答活动的弹幕答案分发方法实施例的方法流程示意图的说明。
参照图2所示,为图1中基于在线问答活动的弹幕答案分发程序10实施例的程序模块示意图。基于在线问答活动的弹幕答案分发程序10被分割为多个模块,该多个模块存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
在本实施例中,所述基于在线问答活动的弹幕答案分发程序10包括获取模块110、处理模块120、建立模块130及展示模块140。
获取模块110,用于获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案。
以主持人通过网络形式实时提问,让用户作为观众回答问题,并以发送弹幕的方式与主持人进行互动为应用场景进行举例说明。
在本实施例中,服务器1通过获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,并利用预设的语音转换算法将所有第一语音数据转化成第一文本数据。
其中,所述弹幕文本数据是由观众发起的,所述第一语音数据是由主持人发起的。所述语音转换算法可采用例如基于深度全序列卷积神经网络的第三方语音转换工具,将第一语音数据转换成对应的第一文本数据。
从得到的第一文本数据中筛选出疑问句(例如“辛亥革命的具体发生时间是什么时候”)及陈述句(例如正确答案是“1911年10月10日”),将各个疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,将其中相似度值最大者对应的预设问题作为目标问题,即主持人提出的问题,同时根据目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案,即主持人公布的问题答案。
其中,所述相似度值的计算方法可采用余弦相似度算法:
获取模块120,用于将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕。
为了有针对性地获取只与某个目标问题相关的弹幕文本数据,因此,在本实施例中,通过将目标问题及目标答案对应的语音上传时间分别记为起始时间(例如11:00)及结束时间(例如11:20),从起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕,例如“太难了这道题”等与答案无关联的弹幕文本数据,得到疑似答案弹幕(包括正确答案弹幕与错误答案弹幕),将每个疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕。
建立模块130,用于根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式。
在本实施例中,根据非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式,满足不同用户的需求,提高用户体验感。
所述答案弹幕展示方式包括:
显示答案弹幕:按照原本的答案弹幕情况呈现弹幕。
在用户输入答案后才显示答案弹幕:获取用户输入并发送答案弹幕后的时间,并在该时间点后才开始呈现答案弹幕。
在用户输入答案后才显示正确答案弹幕:获取用户输入并发送答案弹幕后的时间,并在该时间点后才开始呈现正确答案弹幕。
不显示答案弹幕:不显示答案相关类的弹幕,只显示非答案弹幕。
展示模块140,用于接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
在本实施例中,当服务器1接收到客户端上传的弹幕展示请求后,首先对弹幕展示请求进行解析得到用户属性信息及输入答案,之后将用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据弹幕展示方式向客户端展示答案弹幕。
所述用户属性信息包括:答案弹幕的准确率、点赞情况、得到正确答题平均反应时间,用户信息,用户跳台及流量使用情况等。
所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量(例如10万)的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例(例如4:1)分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期(例如每进行1000次迭代)使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值(例如95%)时,结束训练,得到所述弹幕展示方式识别模型。
通过将用户属性信息输入训练得到的弹幕展示方式识别模型,得到与用户对应的弹幕展示方式,并根据弹幕展示方式向客户端展示答案弹幕。
例如,用户A属性:年龄20岁、性别男、历史浏览记录为每月观看问答类节目5次以上、发送答案弹幕的准确率为80%、无点赞其他弹幕情况、得到正确答题平均反应时间为5秒。
对应的弹幕展示方式为:显示答案弹幕。
用户B属性:年龄40岁、性别女、历史浏览记录为每月观看问答类节目5次以下、发送答案弹幕的准确率为10%、无点赞其他弹幕情况、到正确答题平均反应时间为50秒。
对应的弹幕展示方式为:不显示答案弹幕。
同时所述弹幕展示方式识别模型为动态模型,输出结果会随着用户属性信息的更新实现实时更新。
在另一实施例中,展示模块140还用于:
接收客户端上传的弹幕展示请求,对弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据弹幕展示方式向客户端展示答案弹幕。
所述弹幕展示方式是由用户在客户端上设置的多个不同虚拟按钮上进行选择得到的。
在另一实施例中,该程序还包括判断模块:
用于利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
在本实施例中,通过获取用户在观看某个答案弹幕时的表情变化,判断用户对其观看的答案弹幕是否存在消极情绪(例如悲伤、生气、难过等),如果存在便停止向用户对应的客户端继续展示答案弹幕,避免用户的情绪扩大。
所述情绪识别模型也可采用卷积神经网络模型,具体训练过程与弹幕展示方式识别模型类似,在此不做赘述。
在另一实施例中,该程序还包括分配模块:
用于为所述非答案弹幕、正确答案弹幕及错误答案弹幕各自对应的弹幕展示框分别分配唯一的预设展示颜色,从而更加容易分辨各种类型的弹幕文本。
例如正确答案弹幕为红色,错误答案弹幕为绿色展示,非答案弹幕为黄色。
在另一实施例中,该程序还包括设置模块:
用于实时计算每个用户对应的所述输入答案在相同预设时长(例如一小时)内的答案准确率,并设置用户对应的所述弹幕展示框的大小随着答案准确率的提升而变大。
即根据答案弹幕的准确率,通过预设比例调整用户发布的弹幕展示框的大小,例如准确率越高的人,发布的弹幕展示框越大,越能引起别人注意,反正越小。
在另一实施例中,所述设置模块还用于:
通过浏览器检测用户是否通过搜索引擎复制黏贴将正确答案输入到输入框中,如果是,取消该次正确发送答案弹幕的准确率计算。防止用户作弊。
在另一实施例中,所述设置模块还用于:
计算在相同预设时长内所有用户的错误答案弹幕与总答案弹幕之比,当比例超过预设值(例如70%),将该错误答案对应的目标问题加入精彩错题库并在主持人的客户端进行展示,方便主持人了解节目效果。
在另一实施例中,所述设置模块还用于:
用户可以通过浏览器按钮调整弹幕出现时间,例如,在1/4处显示答案弹幕,在1/2处显示答案弹幕,在3/4处显示答案弹幕,在1/4处显示正确答案弹幕,在1/2处显示正确答案弹幕,在3/4出显示正确答案弹幕。
此外,本发明还提供一种基于在线问答活动的弹幕答案分发方法。参照图3所示,为本发明基于在线问答活动的弹幕答案分发方法的实施例的方法流程示意图。服务器1的处理器12执行存储器11中存储的基于在线问答活动的弹幕答案分发程序10时实现基于在线问答活动的弹幕答案分发方法的如下步骤:
S110,获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案。
以主持人通过网络形式实时提问,让用户作为观众回答问题,并以发送弹幕的方式与主持人进行互动为应用场景进行举例说明。
在本实施例中,服务器1通过获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,并利用预设的语音转换算法将所有第一语音数据转化成第一文本数据。
其中,所述弹幕文本数据是由观众发起的,所述第一语音数据是由主持人发起的。所述语音转换算法可采用例如基于深度全序列卷积神经网络的第三方语音转换工具,将第一语音数据转换成对应的第一文本数据。
从得到的第一文本数据中筛选出疑问句(例如“辛亥革命的具体发生时间是什么时候”)及陈述句(例如正确答案是“1911年10月10日”),将各个疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,将其中相似度值最大者对应的预设问题作为目标问题,即主持人提出的问题,同时根据目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案,即主持人公布的问题答案。
其中,所述相似度值的计算方法可采用余弦相似度算法:
S120,将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕。
为了有针对性地获取只与某个目标问题相关的弹幕文本数据,因此,在本实施例中,通过将目标问题及目标答案对应的语音上传时间分别记为起始时间(例如11:00)及结束时间(例如11:20),从起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕,例如“太难了这道题”等与答案无关联的弹幕文本数据,得到疑似答案弹幕(包括正确答案弹幕与错误答案弹幕),将每个疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕。
S130,根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式。
在本实施例中,根据非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式,满足不同用户的需求,提高用户体验感。
所述答案弹幕展示方式包括:
显示答案弹幕:按照原本的答案弹幕情况呈现弹幕。
在用户输入答案后才显示答案弹幕:获取用户输入并发送答案弹幕后的时间,并在该时间点后才开始呈现答案弹幕。
在用户输入答案后才显示正确答案弹幕:获取用户输入并发送答案弹幕后的时间,并在该时间点后才开始呈现正确答案弹幕。
不显示答案弹幕:不显示答案相关类的弹幕,只显示非答案弹幕。
S140,接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
在本实施例中,当服务器1接收到客户端上传的弹幕展示请求后,首先对弹幕展示请求进行解析得到用户属性信息及输入答案,之后将用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据弹幕展示方式向客户端展示答案弹幕。
所述用户属性信息包括:答案弹幕的准确率、点赞情况、得到正确答题平均反应时间,用户信息,用户跳台及流量使用情况等。
所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量(例如10万)的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例(例如4:1)分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期(例如每进行1000次迭代)使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值(例如95%)时,结束训练,得到所述弹幕展示方式识别模型。
通过将用户属性信息输入训练得到的弹幕展示方式识别模型,得到与用户对应的弹幕展示方式,并根据弹幕展示方式向客户端展示答案弹幕。
例如,用户A属性:年龄20岁、性别男、历史浏览记录为每月观看问答类节目5次以上、发送答案弹幕的准确率为80%、无点赞其他弹幕情况、得到正确答题平均反应时间为5秒。
对应的弹幕展示方式为:显示答案弹幕。
用户B属性:年龄40岁、性别女、历史浏览记录为每月观看问答类节目5次以下、发送答案弹幕的准确率为10%、无点赞其他弹幕情况、到正确答题平均反应时间为50秒。
对应的弹幕展示方式为:不显示答案弹幕。
同时所述弹幕展示方式识别模型为动态模型,输出结果会随着用户属性信息的更新实现实时更新。
在另一实施例中,该方法还包括以下步骤:
接收客户端上传的弹幕展示请求,对弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据弹幕展示方式向客户端展示答案弹幕。
所述弹幕展示方式是由用户在客户端上设置的多个不同虚拟按钮上进行选择得到的。
在另一实施例中,该方法还包括以下步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
在本实施例中,通过获取用户在观看某个答案弹幕时的表情变化,判断用户对其观看的答案弹幕是否存在消极情绪(例如悲伤、生气、难过等),如果存在便停止向用户对应的客户端继续展示答案弹幕,避免用户的情绪扩大。
所述情绪识别模型也可采用卷积神经网络模型,具体训练过程与弹幕展示方式识别模型类似,在此不做赘述。
在另一实施例中,该方法还包括以下步骤:
为所述非答案弹幕、正确答案弹幕及错误答案弹幕各自对应的弹幕展示框分别分配唯一的预设展示颜色,从而更加容易分辨各种类型的弹幕文本。
例如正确答案弹幕为红色,错误答案弹幕为绿色展示,非答案弹幕为黄色。
在另一实施例中,该方法还包括以下步骤:
实时计算每个用户对应的所述输入答案在相同预设时长(例如一小时)内的答案准确率,并设置用户对应的所述弹幕展示框的大小随着答案准确率的提升而变大。
即根据答案弹幕的准确率,通过预设比例调整用户发布的弹幕展示框的大小,例如准确率越高的人,发布的弹幕展示框越大,越能引起别人注意,反正越小。
在另一实施例中,该方法还包括以下步骤:
通过浏览器检测用户是否通过搜索引擎复制黏贴将正确答案输入到输入框中,如果是,取消该次正确发送答案弹幕的准确率计算。防止用户作弊。
在另一实施例中,该方法还包括以下步骤:
计算在相同预设时长内所有用户的错误答案弹幕与总答案弹幕之比,当比例超过预设值(例如70%),将该错误答案对应的目标问题加入精彩错题库并在主持人的客户端进行展示,方便主持人了解节目效果。
在另一实施例中,该方法还包括以下步骤:
用户可以通过浏览器按钮调整弹幕出现时间,例如,在1/4处显示答案弹幕,在1/2处显示答案弹幕,在3/4处显示答案弹幕,在1/4处显示正确答案弹幕,在1/2处显示正确答案弹幕,在3/4出显示正确答案弹幕。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等中的任意一种或者几种的任意组合。计算机可读存储介质中包括基于在线问答活动的弹幕答案分发程序10,本发明之计算机可读存储介质的具体实施方式与上述基于在线问答活动的弹幕答案分发方法以及服务器1的具体实施方式大致相同,在此不再赘述。
需要说明的是,上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术本实施例本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于在线问答活动的弹幕答案分发方法,应用于服务器,其特征在于,该方法包括:
获取步骤:获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案;
处理步骤:将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕;
建立步骤:根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式;及
展示步骤:接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
2.如权利要求1所述的基于在线问答活动的弹幕答案分发方法,其特征在于,所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值时,结束训练,得到所述弹幕展示方式识别模型。
3.如权利要求1所述的基于在线问答活动的弹幕答案分发方法,其特征在于,在所述展示步骤之后,该方法还包括判断步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
4.如权利要求1所述的基于在线问答活动的弹幕答案分发方法,其特征在于,该方法还包括分配步骤:
为所述非答案弹幕、正确答案弹幕及错误答案弹幕各自对应的弹幕展示框分别分配唯一的预设展示颜色。
5.如权利要求1所述的基于在线问答活动的弹幕答案分发方法,其特征在于,该方法还包括设置步骤:
实时计算每个用户对应的所述输入答案在相同预设时长内的答案准确率,并设置用户对应的所述弹幕展示框的大小随着答案准确率的提升而变大。
6.如权利要求1-5任一项所述的基于在线问答活动的弹幕答案分发方法,其特征在于,所述设置步骤还包括:
通过浏览器监测用户是否通过搜索引擎搜索所述目标问题对应的目标答案,并将该目标答案作为输入答案,若是,则不将本次的输入答案作为计算所述答案准确率的计算依据。
7.一种服务器,其特征在于,所述服务器包括存储器和处理器,所述存储器上存储有基于在线问答活动的弹幕答案分发程序,所述基于在线问答活动的弹幕答案分发程序被所述处理器执行时实现如下步骤:
获取步骤:获取客户端上传的多条弹幕文本数据、多条第一语音数据及对应的语音上传时间,利用预设的语音转换算法将所有所述第一语音数据转化成第一文本数据,从所述第一文本数据中筛选出疑问句及陈述句,将各个所述疑问句与预先创建的问答库中各个预设问题之间进行相似度值计算,筛选出相似度值最大者对应的预设问题作为目标问题,同时根据所述目标问题对应的目标答案从第一文本数据中找到匹配一致的陈述句作为目标答案;
处理步骤:将所述目标问题及目标答案对应的语音上传时间分别记为起始时间及结束时间,从所述起始时间到结束时间之间产生的所有弹幕文本数据中剔除非答案弹幕得到疑似答案弹幕,将每个所述疑似答案弹幕分别与目标答案进行相似度值计算,筛选出相似度值最大者对应的疑似答案弹幕作为正确答案弹幕,将除所述正确答案弹幕的其他疑似答案弹幕作为错误答案弹幕;
建立步骤:根据所述非答案弹幕、正确答案弹幕及错误答案弹幕分别创建多种类型的答案弹幕展示方式;及
展示步骤:接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到用户属性信息及输入答案,将所述用户属性信息输入预先训练的弹幕展示方式识别模型,输出对应的弹幕展示方式,根据所述弹幕展示方式向所述客户端展示答案弹幕;或
接收所述客户端上传的弹幕展示请求,对所述弹幕展示请求进行解析得到弹幕展示方式及输入答案,根据所述弹幕展示方式向所述客户端展示答案弹幕。
8.如权利要求7所述的服务器,其特征在于,所述弹幕展示方式识别模型为卷积神经网络模型,所述弹幕展示方式识别模型的训练过程如下:
获取预设数量的用户属性信息样本,为每一个用户属性信息样本分配唯一的弹幕展示方式;
将所述用户属性信息样本按照预设比例分成训练集和验证集,所述训练集中的图像样本数量大于所述验证集中的图像样本数量;
将所述训练集中的用户属性信息样本输入所述卷积神经网络模型进行训练,每隔预设周期使用所述验证集对所述卷积神经网络模型进行验证,利用所述验证集中各个用户属性信息和对应的弹幕展示方式对该弹幕展示方式识别模型的准确率进行验证;及
当验证的准确率大于预设阈值时,结束训练,得到所述弹幕展示方式识别模型。
9.如权利要求7所述的服务器,其特征在于,在所述展示步骤之后,所述基于在线问答活动的弹幕答案分发程序被所述处理器执行时还实现如下步骤:
利用安装于所述客户端上的桌面式眼动仪分别获取用户各个预设时间点对应的瞳孔中心坐标,并判断每个所述瞳孔中心坐标是否存在有坐标数据匹配一致的答案弹幕,若存在,则获取该预设时间点对应的用户人脸图像,将所述用户人脸图像输入预先训练的情绪识别模型,输出对应的情绪类别,若所述情绪类别为预设类别,则停止向所述客户端展示答案弹幕。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有基于在线问答活动的弹幕答案分发程序,所述基于在线问答活动的弹幕答案分发程序可被一个或者多个处理器执行,以实现如权利要求1-6中任一项所述的基于在线问答活动的弹幕答案分发方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010035547.0A CN111274370A (zh) | 2020-01-14 | 2020-01-14 | 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010035547.0A CN111274370A (zh) | 2020-01-14 | 2020-01-14 | 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111274370A true CN111274370A (zh) | 2020-06-12 |
Family
ID=71002978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010035547.0A Withdrawn CN111274370A (zh) | 2020-01-14 | 2020-01-14 | 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274370A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915409A (zh) * | 2020-08-11 | 2020-11-10 | 深圳墨世科技有限公司 | 基于物品的物品推荐方法、装置、设备及存储介质 |
CN112800200A (zh) * | 2021-01-26 | 2021-05-14 | 广州欢网科技有限责任公司 | 节目题目编制方法、装置及设备 |
CN113487458A (zh) * | 2021-07-05 | 2021-10-08 | 杭州卓健信息科技股份有限公司 | 一种基于互联网的医链教学管理系统 |
CN114745573A (zh) * | 2021-01-08 | 2022-07-12 | 上海哔哩哔哩科技有限公司 | 视频控制方法、客户端、服务器及系统 |
WO2023134558A1 (zh) * | 2022-01-14 | 2023-07-20 | 北京字跳网络技术有限公司 | 交互方法、装置、电子设备、存储介质和程序产品 |
-
2020
- 2020-01-14 CN CN202010035547.0A patent/CN111274370A/zh not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915409A (zh) * | 2020-08-11 | 2020-11-10 | 深圳墨世科技有限公司 | 基于物品的物品推荐方法、装置、设备及存储介质 |
CN111915409B (zh) * | 2020-08-11 | 2023-08-04 | 深圳墨世科技有限公司 | 基于物品的物品推荐方法、装置、设备及存储介质 |
CN114745573A (zh) * | 2021-01-08 | 2022-07-12 | 上海哔哩哔哩科技有限公司 | 视频控制方法、客户端、服务器及系统 |
CN114745573B (zh) * | 2021-01-08 | 2023-12-19 | 上海哔哩哔哩科技有限公司 | 视频控制方法、客户端、服务器及系统 |
CN112800200A (zh) * | 2021-01-26 | 2021-05-14 | 广州欢网科技有限责任公司 | 节目题目编制方法、装置及设备 |
CN113487458A (zh) * | 2021-07-05 | 2021-10-08 | 杭州卓健信息科技股份有限公司 | 一种基于互联网的医链教学管理系统 |
WO2023134558A1 (zh) * | 2022-01-14 | 2023-07-20 | 北京字跳网络技术有限公司 | 交互方法、装置、电子设备、存储介质和程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274370A (zh) | 基于在线问答活动的弹幕答案分发方法、服务器及存储介质 | |
KR102106462B1 (ko) | 가중치 기반의 유사 문제 필터링 방법 | |
US10769571B2 (en) | Security and content protection by test environment analysis | |
US10936672B2 (en) | Automatic document negotiation | |
CN107563500B (zh) | 一种基于用户头像的视频推荐方法及系统 | |
US11094215B2 (en) | Internet-based recorded course learning following system and method | |
US9665551B2 (en) | Leveraging annotation bias to improve annotations | |
JP7267453B2 (ja) | 画像拡張ニューラルネットワーク | |
CN114095749B (zh) | 推荐及直播界面展示方法、计算机存储介质、程序产品 | |
US20220230740A1 (en) | Method and computer program to determine user's mental state by using user's behavior data or input data | |
CN112101231A (zh) | 学习行为的监控方法、终端、小程序以及服务器 | |
CN110111011B (zh) | 一种教学质量监管方法、装置及电子设备 | |
US20080222239A1 (en) | Method for determining aesthetic preferences to define a style guide and transforming a presentation based thereon | |
KR20160082078A (ko) | 교육 서비스 시스템 | |
CN113111198B (zh) | 基于协同过滤算法的演示文稿推荐方法及相关设备 | |
CN113301382B (zh) | 视频处理方法、设备、介质及程序产品 | |
CN116955573B (zh) | 问题搜索方法、装置、设备及存储介质 | |
CN111460816B (zh) | 基于语义特征的数据检索方法、电子装置及存储介质 | |
US10296533B2 (en) | Method and system for generation of a table of content by processing multimedia content | |
CN112087590A (zh) | 图像处理方法、装置、系统及计算机存储介质 | |
US11482127B2 (en) | System and method for behavioral analysis and recommendations | |
CN112950167A (zh) | 设计服务匹配方法、装置、设备及存储介质 | |
CN110781322A (zh) | 一种多媒体课件的生成方法、装置、存储介质及终端设备 | |
US20180060984A1 (en) | Method and system for content processing to determine pre-requisite subject matters in multimedia content | |
CN117499477B (zh) | 一种基于大模型训练的信息推送方法以及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200612 |
|
WW01 | Invention patent application withdrawn after publication |