CN111738887B - 线上实时数据交互方法、装置、电子设备及存储介质 - Google Patents

线上实时数据交互方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111738887B
CN111738887B CN202010695107.8A CN202010695107A CN111738887B CN 111738887 B CN111738887 B CN 111738887B CN 202010695107 A CN202010695107 A CN 202010695107A CN 111738887 B CN111738887 B CN 111738887B
Authority
CN
China
Prior art keywords
user
video data
image
data
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010695107.8A
Other languages
English (en)
Other versions
CN111738887A (zh
Inventor
邹洪伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ping An Smart Healthcare Technology Co ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN202010695107.8A priority Critical patent/CN111738887B/zh
Publication of CN111738887A publication Critical patent/CN111738887A/zh
Application granted granted Critical
Publication of CN111738887B publication Critical patent/CN111738887B/zh
Priority to PCT/CN2021/095009 priority patent/WO2022016977A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Abstract

本发明涉及大数据,揭露一种线上实时数据交互方法,包括:采集用户在预设时间段内的第二视频数据及音频数据,根据第二视频数据及音频数据判断用户所处的用户环境是否满足预设要求;当判断用户所处的用户环境满足预设要求时,播放用户请求对应的第一视频数据,并实时获取用户的第三视频数据,对第三视频数据执行特征处理,得到用户的特征序列;将特征序列输入表情识别模型,得到用户的目标表情类别,根据目标表情类别动态调整第一视频数据的播放策略。本发明还涉及区块链技术,第二、第三视频数据存储于区块链中。本发明可提高线上实时数据交互效率。

Description

线上实时数据交互方法、装置、电子设备及存储介质
技术领域
本发明涉及大数据处理,尤其涉及一种线上实时数据交互方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的发展,线上数据交互的应用越来越广泛,例如,在线学习以学习时间灵活、学习地点无限制等优势迅速融入人们的生活中。
然而,当前的在线学习方式,学员在线学习课程视频,教师无法获知学员的学习环境,也无法及时掌握学员的学习状态,通常只能通过问卷调查及测验等事后反馈机制来了解学员的学习情况,从而不能及时根据学员的学习情况来调整课程视频的播放策略,导致学员的学习效率低下。因此,亟需一种线上实时数据交互方法,以动态调整视频播放策略,提高线上实时数据交互效率。
发明内容
鉴于以上内容,有必要提供一种线上实时数据交互方法,旨在提高线上实时数据交互效率。
本发明提供的线上实时数据交互方法,包括:
响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求;
当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列;
将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略。
可选的,所述根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求包括:
根据所述第二视频数据判断所述用户所处的用户环境是否发生变化;
根据所述音频数据判断所述用户所处的用户环境是否存在噪声;
若判断所述用户环境未发生变化,且所述用户环境无噪声,则判断所述用户所处的用户环境满足预设要求。
可选的,所述根据所述第二视频数据判断所述用户所处的用户环境是否发生变化包括:
对所述第二视频数据进行分帧,得到第一图像序列;
将所述第一图像序列中相邻两张图像作为一个图像组,得到多个图像组;
基于图像匹配算法计算所述多个图像组中每个图像组的图像相似度值;
若所述多个图像组中图像相似度值大于第一阈值的图像组的数量大于第二阈值,则判断所述用户所处的用户环境发生变化。
可选的,所述根据所述音频数据判断所述用户所处的用户环境是否存在噪声包括:
计算所述音频数据的多个预设声音特征中的每个预设声音特征对应的第一特征值;
计算预设噪声集中各个噪声数据的所述每个预设声音特征对应的第二特征值;
分别计算所述第一特征值与所述各个噪声数据的所述每个预设声音特征对应的第二特征值之间的声音相似度值;
根据所述声音相似度值及预先确定的各个预设声音特征对应的权重参数计算所述音频数据与所述各个噪声数据的噪声相似度值;
若所述噪声相似度值大于第三阈值,则判断所述用户所处的用户环境存在噪声。
可选的,所述对所述第三视频数据进行特征处理,得到所述用户的特征序列包括:
对所述第三视频数据进行分帧,得到第二图像序列;
对所述第二图像序列中的每个图像执行尺寸归一化处理,得到第三图像序列;
对所述第三图像序列中的每个图像执行灰度归一化处理,得到第四图像序列;
基于特征提取算法对所述第四图像序列中的每个图像执行特征提取,得到所述用户的特征序列。
可选的,所述根据所述目标表情类别动态调整所述第一视频数据的播放策略包括:
将各表情类别分别添加至预先配置的等级数据表中;
根据所述等级数据表确定所述目标表情类别对应的目标表情等级;
根据预先确定的表情等级与视频播放策略之间的映射关系确定所述目标表情等级对应的目标视频播放策略,根据所述目标视频播放策略对所述第一视频数据进行播放调整。
可选的,在根据所述目标表情类别动态调整所述第一视频数据的播放策略之后,所述方法还包括:
实时获取所述客户端的屏幕截图,判断所述屏幕截图是否为预设画面;
若判断所述屏幕截图不是预设画面,则停止播放所述第一视频数据,并发送警示信息至所述客户端。
为了解决上述问题,本发明还提供一种线上实时数据交互装置,所述装置包括:
请求模块,用于响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
判断模块,用于采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求;
播放模块,用于当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列;
调整模块,用于将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述线上实时数据交互方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有线上实时数据交互程序,所述线上实时数据交互程序可被一个或者多个处理器执行,以实现上述线上实时数据交互方法。
相较现有技术,本发明首先采集用户在预设时间段内的第二视频数据及音频数据,判断用户所处的用户环境是否满足预设要求,本步骤的目的是通过验证用户环境是否优良来提升交互效率;接着,当判断用户所处的用户环境满足预设要求时,播放第一视频数据,并实时获取用户的第三视频数据,对第三视频数据执行特征处理,得到用户的特征序列,通过本步骤可实时获悉用户的当前状况;最后,将特征序列输入表情识别模型,得到用户的目标表情类别,根据目标表情类别动态调整第一视频数据的播放策略,本步骤将播放策略与用户的表情关联起来,使得实时交互效率更高。故而,本发明提高了线上实时数据交互效率。
附图说明
图1为本发明一实施例提供的线上实时数据交互方法的流程示意图;
图2为本发明一实施例提供的线上实时数据交互装置的模块示意图;
图3为本发明一实施例提供的实现线上实时数据交互方法的电子设备的结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种线上实时数据交互方法。参照图1所示,为本发明一实施例提供的线上实时数据交互方法的流程示意图。该方法可以由一个电子设备执行,该电子设备可以由软件和/或硬件实现。
本实施例中,线上实时数据交互方法包括:
S1、响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
S2、采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求。
本实施例以数据交互请求为在线学习请求为例进行说明,所述请求中包括待学习的课程视频标识。当接收到用户的在线学习请求后,采集用户5~15秒的音、视频数据,以确认用户的学习环境是否满足学习要求。本实施例中通过摄像头采集视频数据,通过麦克风采集音频数据。
所述根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求包括:
A1、根据所述第二视频数据判断所述用户所处的用户环境是否发生变化;
A2、根据所述音频数据判断所述用户所处的用户环境是否存在噪声;
A3、若判断所述用户环境未发生变化,且所述用户环境无噪声,则判断所述用户所处的用户环境满足预设要求。
本实施例中,所述根据所述第二视频数据判断所述用户所处的用户环境是否发生变化包括:
B1、对所述第二视频数据进行分帧,得到第一图像序列;
B2、将所述第一图像序列中相邻两张图像作为一个图像组,得到多个图像组;
本实施例中,将第一图像序列中的图像进行编码,例如,按照自然数从小到大的顺序编码,假设第一图像序列中共10张图像,则其编码分别为1,2,3…10,然后从第一图像序列中的第一张图像开始,将编码为相邻奇偶数的两张图像作为一个图像组,即编码1及编码2对应的两张图像为一个图像组,编码3及编码4对应的两张图像为一个图像组,共可得到5个图像组。
在其他实施例中,也可将第一图像序列中任意相邻的两张图像作为一个图像组,例如,编码1及编码2对应的两张图像为一个图像组,编码2及编码3对应的两张图像为一个图像组,编码3及编码4对应的两张图像为一个图像组。
B3、基于图像匹配算法计算所述多个图像组中每个图像组的图像相似度值;
B4、若所述多个图像组中图像相似度值大于第一阈值的图像组的数量大于第二阈值,则判断所述用户所处的用户环境发生变化。
本实施例中,所述图像匹配算法为SIFT(Scale Invariant Feature Transform,尺度不变特征转换)算法。SIFT算法可侦测与描述图像中的局部性特征,对光线、噪声、部分遮蔽、细微视角改变等影响的容忍度极高。SIFT算法计算图像相似度的过程包括构建尺度空间、关键点定位、方向分配、关键点特征描述、特征向量匹配、相似度计算等步骤,因SIFT为现有算法,在此不做赘述。
通过步骤B1~B4可识别出以下两种情况的环境变化:
C1、用户的位置发生变化,例如,用户在步行中或其他交通工具上;
C2、用户的位置未发生变化,但用户所处环境中的移动物体较多,例如,用户在街区,流动的人群和/或车辆较多。
以上两种情况对用户的干扰较大,皆不适合学习。
本实施例中,所述根据所述音频数据判断所述用户所处的用户环境是否存在噪声包括:
D1、计算所述音频数据的多个预设声音特征中的每个预设声音特征对应的第一特征值;
所述预设声音特征包括短时能量、短时过零率、线性预测倒谱系数、对数频率能量系数、子带能量、梅尔倒谱系数、响度、频谱流量、共振频率、基音频率。
本实施例中,将音频数据分帧(例如,按照帧长512,帧移256进行分帧)后,可通过现有声音处理工具(例如,Matlab 6.0)计算各个预设声音特征对应的特征值。
D2、计算预设噪声集中各个噪声数据的所述每个预设声音特征对应的第二特征值;
所述预设噪声集中存储有预先采集的不同环境下的噪声数据。
D3、分别计算所述第一特征值与所述各个噪声数据的所述每个预设声音特征对应的第二特征值之间的声音相似度值;
本实施例中,可采用距离算法计算第一特征值与各个噪声数据的每个预设声音特征对应的第二特征值之间的声音相似度,例如,余弦相似度、曼哈顿距离、欧氏距离、明式距离等距离算法。
D4、根据所述声音相似度值及预先确定的各个预设声音特征对应的权重参数计算所述音频数据与所述各个噪声数据的噪声相似度值;
所述噪声相似度值的计算公式为:
Yi=A1*Bi-1+A2*Bi-2+…+An*Bi-n
其中,Yi为音频数据与第i个噪声数据的噪声相似度值,A1为第一个预设声音特征对应的权重参数,Bi-1为音频数据的第一个预设声音特征对应的第一特征值与第i个噪声数据的第一个预设声音特征对应的第二特征值之间的声音相似度值,A2为第二个预设声音特征对应的权重参数,Bi-2为音频数据的第二个预设声音特征对应的第一特征值与第i个噪声数据的第二个预设声音特征对应的第二特征值之间的声音相似度值,An为第n个预设声音特征对应的权重参数,Bi-n为音频数据的第n个预设声音特征对应的第一特征值与第i个噪声数据的第n个预设声音特征对应的第二特征值之间的声音相似度值。
D5、若所述噪声相似度值大于第三阈值,则判断所述用户所处的用户环境存在噪声。
以请求在线学习为例,通过用户环境是否在变化及用户环境中是否存在噪声判断用户当前的学习环境是否满足学习要求,以实现通过优良的学习环境提高学习效率。
S3、当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列。
以请求在线学习为例,当用户的学习环境满足学习要求时,可播放用户请求的课程视频,并实时获取所述用户在学习过程中的第三视频数据,以实现实时了解用户的学习情况。
为进一步保证上述第二视频数据、第三视频数据的私密和安全性,上述第二视频数据、第三视频数据还可以存储于一区块链的节点中。
本实施例中,所述对所述第三视频数据进行特征处理,得到所述用户的特征序列包括:
E1、对所述第三视频数据进行分帧,得到第二图像序列;
E2、对所述第二图像序列中的每个图像执行尺寸归一化处理,得到第三图像序列;
在本发明的另一个实施例中,所述对所述第二图像序列中的图像执行尺寸归一化处理,包括:
F1、标定特征点:根据[x,y] = ginput(3)函数标定两眼和鼻子三个特征点,获取三个特征点的坐标值;
F2、人脸校正:根据左右两眼的坐标值旋转图像,以保证人脸方向的一致性,其中,两眼之间的距离为d,其中点为O;
F3、人脸裁剪:根据面部特征点和几何模型确定矩形特征区域,以O为基准,左右各剪切d,垂直方向各取0.5d和1.5d的矩形区域进行裁剪。
通过尺寸归一化处理可将图像变换为统一的尺寸,有利于表情特征的提取。
E3、对所述第三图像序列中的每个图像执行灰度归一化处理,得到第四图像序列;
所述灰度归一化处理的公式为:
Figure 421734DEST_PATH_IMAGE001
其中,Y为归一化后的图像的灰度值,X为原图像的灰度值,min为原图像的最小灰度值,max为原图像的最大灰度值。
灰度归一化的目的是增加图像的亮度,使图像的细节更加清楚,以减弱光线和光照强度对图像的影响。
E4、基于特征提取算法对所述第四图像序列中的每个图像执行特征提取,得到所述用户的特征序列。
本实施例中,所述特征提取算法为PCA(Principal ComponentAnalysis,主成分分析)算法。PCA算法是一种降维算法,当两个变量有相关性时,认为两个变量有一定的信息重叠,PCA算法是对于原有的所有变量,从重复的变量(关系紧密的变量)中删去多余变量,建立尽可能少的新变量,使得新变量两两不相关,且新变量尽可能保留原有信息,即将m维特征映射到n维上(n<m),所得到的n维特征是全新的正交特征,称为主成分。
PCA算法的降维过程包括:求m个特征中每个特征的平均值;求去均值后的矩阵;计算协方差矩阵的特征值;对特征值排序,取前n个特征作为主成分,得到投影矩阵;根据投影矩阵求n维特征值。
本实施例中,采用PCA算法对第四图像序列中的图像处理后,得到的特征序列中的每个特征为一个n维特征。
本步骤中的尺寸归一化、灰度归一化处理可使得图像中人脸特征的提取更为方便,再通过PCA算法将特征数据降维,使得特征处理的效率更高。
本实施例中,在根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求之后,所述线上实时数据交互方法还包括:
若判断所述用户所处的用户环境不满足预设要求,则拒绝所述数据交互请求,并发送警示信息。
S4、将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略。
本实施例中,所述表情识别模型是由递归神经网络模型和随机森林模型级联组成的,递归神经网络模型的输出为随机森林模型的输入。将特征序列输入递归神经网络模型进行多种非线性变换和表示,得到更具有表征性的高级特征,将高级特征输入随机森林模型,得到用户的目标表情类别。
本实施例中,所述根据所述目标表情类别动态调整所述第一视频数据的播放策略包括:
G1、将各表情类别分别添加至预先配置的等级数据表中;
所述表情类别包括开心、生气、厌烦、惊讶、兴奋、疑惑。
本实施例中,所述等级数据表中包括三个表情等级,三个表情等级中的第一级表情包括生气、厌烦,第二级表情包括疑惑、惊讶,第三级表情包括开心、兴奋。
G2、根据所述等级数据表确定所述目标表情类别对应的目标表情等级;
G3、根据预先确定的表情等级与视频播放策略之间的映射关系确定所述目标表情等级对应的目标视频播放策略,根据所述目标视频播放策略对所述第一视频数据进行播放调整。
本实施例中,所述预先确定的表情等级与视频播放策略之间的映射关系包括:
H1、第一级表情等级对应的视频播放策略为停止播放所述第一视频数据,并发出警示信息;
H2、第二级表情等级对应的视频播放策略为减慢所述第一视频数据的播放速度,或者重复播放预设时间段内(例如,前5分钟)的所述第一视频数据;
H3、第三级表情等级对应的视频播放策略为加快所述第一视频数据的播放速度。
在本发明的另一个实施例中,在根据所述目标表情类别动态调整所述第一视频数据的播放策略之后,所述线上实时数据交互方法还包括:
I1、实时获取所述客户端的屏幕截图,判断所述屏幕截图是否为预设画面;
I2、若判断所述屏幕截图不是预设画面,则停止播放所述第一视频数据,并发送警示信息至所述客户端。
所述预设画面为画面中仅显示有正在播放的第一视频数据。以在线学习为例,画面中需仅显示有课程视频的播放界面,此举的目的是为了防止学员在学习的同时,还存在玩游戏、看电影、浏览新闻等其他行为。
由上述实施例可知,本发明提出的线上实时数据交互方法,首先,采集用户在预设时间段内的第二视频数据及音频数据,判断用户所处的用户环境是否满足预设要求,本步骤的目的是通过验证用户环境是否优良来提升交互效率;接着,当判断用户所处的用户环境满足预设要求时,播放第一视频数据,并实时获取用户的第三视频数据,对第三视频数据执行特征处理,得到用户的特征序列,通过本步骤可实时获悉用户的当前状况;最后,将特征序列输入表情识别模型,得到用户的目标表情类别,根据目标表情类别动态调整第一视频数据的播放策略,本步骤将播放策略与用户的表情关联起来,使得实时交互效率更高。故而,本发明提高了线上实时数据交互效率。
如图2所示,为本发明一实施例提供的线上实时数据交互装置的模块示意图。
本发明所述线上实时数据交互装置100可以安装于电子设备中。根据实现的功能,所述线上实时数据交互装置100可以包括请求模块110、判断模块120、播放模块130及调整模块140。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
请求模块110,用于响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
判断模块120,用于采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求。
本实施例以数据交互请求为在线学习请求为例进行说明,所述请求中包括待学习的课程视频标识。当接收到用户的在线学习请求后,采集用户5~15秒的音、视频数据,以确认用户的学习环境是否满足学习要求。本实施例中通过摄像头采集视频数据,通过麦克风采集音频数据。
所述根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求包括:
A1、根据所述第二视频数据判断所述用户所处的用户环境是否发生变化;
A2、根据所述音频数据判断所述用户所处的用户环境是否存在噪声;
A3、若判断所述用户环境未发生变化,且所述用户环境无噪声,则判断所述用户所处的用户环境满足预设要求。
本实施例中,所述根据所述第二视频数据判断所述用户所处的用户环境是否发生变化包括:
B1、对所述第二视频数据进行分帧,得到第一图像序列;
B2、将所述第一图像序列中相邻两张图像作为一个图像组,得到多个图像组;
本实施例中,将第一图像序列中的图像进行编码,例如,按照自然数从小到大的顺序编码,假设第一图像序列中共10张图像,则其编码分别为1,2,3…10,然后将编码为相邻奇偶数的两张图像作为一个图像组,即编码1及编码2对应的两张图像为一个图像组,编码3及编码4对应的两张图像为一个图像组,共可得到5个图像组。
在其他实施例中,也可将第一图像序列中任意相邻的两张图像作为一个图像组,例如,编码1及编码2对应的两张图像为一个图像组,编码2及编码3对应的两张图像为一个图像组,编码3及编码4对应的两张图像为一个图像组。
B3、基于图像匹配算法计算所述多个图像组中每个图像组的图像相似度值;
B4、若所述多个图像组中图像相似度值大于第一阈值的图像组的数量大于第二阈值,则判断所述用户所处的用户环境发生变化。
本实施例中,所述图像匹配算法为SIFT(Scale Invariant Feature Transform,尺度不变特征转换)算法。SIFT算法可侦测与描述图像中的局部性特征,对光线、噪声、部分遮蔽、细微视角改变等影响的容忍度极高。SIFT算法计算图像相似度的过程包括构建尺度空间、关键点定位、方向分配、关键点特征描述、特征向量匹配、相似度计算等步骤,因SIFT为现有算法,在此不做赘述。
通过步骤B1~B4可识别出以下两种情况的环境变化:
C1、用户的位置发生变化,例如,用户在步行中或其他交通工具上;
C2、用户的位置未发生变化,但用户所处环境中的移动物体较多,例如,用户在街区,流动的人群和/或车辆较多。
以上两种情况对用户的干扰较大,皆不适合学习。
本实施例中,所述根据所述音频数据判断所述用户所处的用户环境是否存在噪声包括:
D1、计算所述音频数据的多个预设声音特征中的每个预设声音特征对应的第一特征值;
所述预设声音特征包括短时能量、短时过零率、线性预测倒谱系数、对数频率能量系数、子带能量、梅尔倒谱系数、响度、频谱流量、共振频率、基音频率。
本实施例中,将音频数据分帧(例如,按照帧长512,帧移256进行分帧)后,可通过现有声音处理工具(例如,Matlab 6.0)计算各个预设声音特征对应的特征值。
D2、计算预设噪声集中各个噪声数据的所述每个预设声音特征对应的第二特征值;
所述预设噪声集中存储有预先采集的不同环境下的噪声数据。
D3、分别计算所述第一特征值与所述各个噪声数据的所述每个预设声音特征对应的第二特征值之间的声音相似度值;
本实施例中,可采用距离算法计算第一特征值与各个噪声数据的每个预设声音特征对应的第二特征值之间的声音相似度,例如,余弦相似度、曼哈顿距离、欧氏距离、明式距离等距离算法。
D4、根据所述声音相似度值及预先确定的各个预设声音特征对应的权重参数计算所述音频数据与所述各个噪声数据的噪声相似度值;
所述噪声相似度值的计算公式为:
Yi=A1*Bi-1+A2*Bi-2+…+An*Bi-n
其中,Yi为音频数据与第i个噪声数据的噪声相似度值,A1为第一个预设声音特征对应的权重参数,Bi-1为音频数据的第一个预设声音特征对应的第一特征值与第i个噪声数据的第一个预设声音特征对应的第二特征值之间的声音相似度值,A2为第二个预设声音特征对应的权重参数,Bi-2为音频数据的第二个预设声音特征对应的第一特征值与第i个噪声数据的第二个预设声音特征对应的第二特征值之间的声音相似度值,An为第n个预设声音特征对应的权重参数,Bi-n为音频数据的第n个预设声音特征对应的第一特征值与第i个噪声数据的第n个预设声音特征对应的第二特征值之间的声音相似度值。
D5、若所述噪声相似度值大于第三阈值,则判断所述用户所处的用户环境存在噪声。
以请求在线学习为例,通过用户环境是否在变化及用户环境中是否存在噪声判断用户当前的学习环境是否满足学习要求,以实现通过优良的学习环境提高学习效率。
播放模块130,用于当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列。
以请求在线学习为例,当用户的学习环境满足学习要求时,可播放用户请求的课程视频,并实时获取所述用户在学习过程中的第三视频数据,以实现实时了解用户的学习情况。
为进一步保证上述第二视频数据、第三视频数据的私密和安全性,上述第二视频数据、第三视频数据还可以存储于一区块链的节点中。
本实施例中,所述对所述第三视频数据进行特征处理,得到所述用户的特征序列包括:
E1、对所述第三视频数据进行分帧,得到第二图像序列;
E2、对所述第二图像序列中的每个图像执行尺寸归一化处理,得到第三图像序列;
在本发明的另一个实施例中,所述对所述第二图像序列中的图像执行尺寸归一化处理,包括:
F1、标定特征点:根据[x,y] = ginput(3)函数标定两眼和鼻子三个特征点,获取三个特征点的坐标值;
F2、人脸校正:根据左右两眼的坐标值旋转图像,以保证人脸方向的一致性,其中,两眼之间的距离为d,其中点为O;
F3、人脸裁剪:根据面部特征点和几何模型确定矩形特征区域,以O为基准,左右各剪切d,垂直方向各取0.5d和1.5d的矩形区域进行裁剪。
通过尺寸归一化处理可将图像变换为统一的尺寸,有利于表情特征的提取。
E3、对所述第三图像序列中的每个图像执行灰度归一化处理,得到第四图像序列;
所述灰度归一化处理的公式为:
Figure 292869DEST_PATH_IMAGE001
其中,Y为归一化后的图像的灰度值,X为原图像的灰度值,min为原图像的最小灰度值,max为原图像的最大灰度值。
灰度归一化的目的是增加图像的亮度,使图像的细节更加清楚,以减弱光线和光照强度对图像的影响。
E4、基于特征提取算法对所述第四图像序列中的每个图像执行特征提取,得到所述用户的特征序列。
本实施例中,所述特征提取算法为PCA(Principal ComponentAnalysis,主成分分析)算法。PCA算法是一种降维算法,当两个变量有相关性时,认为两个变量有一定的信息重叠,PCA算法是对于原有的所有变量,从重复的变量(关系紧密的变量)中删去多余变量,建立尽可能少的新变量,使得新变量两两不相关,且新变量尽可能保留原有信息,即将m维特征映射到n维上(n<m),所得到的n维特征是全新的正交特征,称为主成分。
PCA算法的降维过程包括:求m个特征中每个特征的平均值;求去均值后的矩阵;计算协方差矩阵的特征值;对特征值排序,取前n个特征作为主成分,得到投影矩阵;根据投影矩阵求n维特征值。
本实施例中,采用PCA算法对第四图像序列中的图像处理后,得到的特征序列中的每个特征为一个n维特征。
本步骤中的尺寸归一化、灰度归一化处理可使得图像中人脸特征的提取更为方便,再通过PCA算法将特征数据降维,使得特征处理的效率更高。
本实施例中,在根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求之后,所述判断模块120还用于:
若判断所述用户所处的用户环境不满足预设要求,则拒绝所述数据交互请求,并发送警示信息。
调整模块140,用于将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略。
本实施例中,所述表情识别模型是由递归神经网络模型和随机森林模型级联组成的,递归神经网络模型的输出为随机森林模型的输入。将特征序列输入递归神经网络模型进行多种非线性变换和表示,得到更具有表征性的高级特征,将高级特征输入随机森林模型,得到用户的目标表情类别。
本实施例中,所述根据所述目标表情类别动态调整所述第一视频数据的播放策略包括:
G1、将各表情类别分别添加至预先配置的等级数据表中;
所述表情类别包括开心、生气、厌烦、惊讶、兴奋、疑惑。
本实施例中,所述等级数据表中包括为三个表情等级,三个表情等级中的第一级表情包括生气、厌烦,第二级表情包括疑惑、惊讶,第三级表情包括开心、兴奋。
G2、根据所述等级数据表确定所述目标表情类别对应的目标表情等级;
G3、根据预先确定的表情等级与视频播放策略之间的映射关系确定所述目标表情等级对应的目标视频播放策略,根据所述目标视频播放策略对所述第一视频数据进行播放调整。
本实施例中,所述预先确定的表情等级与视频播放策略之间的映射关系包括:
H1、第一级表情等级对应的视频播放策略为停止播放所述第一视频数据,并发出警示信息;
H2、第二级表情等级对应的视频播放策略为减慢所述第一视频数据的播放速度,或者重复播放预设时间段内(例如,前5分钟)的所述第一视频数据;
H3、第三级表情等级对应的视频播放策略为加快所述第一视频数据的播放速度。
在本发明的另一个实施例中,在根据所述目标表情类别动态调整所述第一视频数据的播放策略之后,所述调整模块140还用于:
I1、实时获取所述客户端的屏幕截图,判断所述屏幕截图是否为预设画面;
I2、若判断所述屏幕截图不是预设画面,则停止播放所述第一视频数据,并发送警示信息至所述客户端。
所述预设画面为画面中仅显示有正在播放的第一视频数据。以在线学习为例,画面中需仅显示有课程视频的播放界面,此举的目的是为了防止学员在学习的同时,还存在玩游戏、看电影、浏览新闻等其他行为。
如图3所示,为本发明一实施例提供的实现线上实时数据交互方法的电子设备的结构示意图。
所述电子设备1是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。所述电子设备1可以是计算机、也可以是单个网络服务器、多个网络服务器组成的服务器组或者基于云计算的由大量主机或者网络服务器构成的云,其中云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。
在本实施例中,电子设备1包括,但不仅限于,可通过系统总线相互通信连接的存储器11、处理器12、网络接口13,该存储器11中存储有线上实时数据交互程序10,所述线上实时数据交互程序10可被所述处理器12执行。图1仅示出了具有组件11-13以及线上实时数据交互程序10的电子设备1,本领域技术人员可以理解的是,图1示出的结构并不构成对电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
其中,存储器11包括内存及至少一种类型的可读存储介质。内存为电子设备1的运行提供缓存;可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等的非易失性存储介质。在一些实施例中,可读存储介质可以是电子设备1的内部存储单元,例如该电子设备1的硬盘;在另一些实施例中,该非易失性存储介质也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。本实施例中,存储器11的可读存储介质通常用于存储安装于电子设备1的操作系统和各类应用软件,例如存储本发明一实施例中的线上实时数据交互程序10的代码等。此外,存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子设备1的总体操作,例如执行与其他设备进行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行线上实时数据交互程序10等。
网络接口13可包括无线网络接口或有线网络接口,该网络接口13用于在所述电子设备1与客户端(图中未画出)之间建立通信连接。
可选的,所述电子设备1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选的,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的线上实时数据交互程序10是多个指令的组合,在所述处理器12中运行时,可以实现:
响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求;
当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列;
将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略。
具体地,所述处理器12对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述第二视频数据、第三视频数据的私密和安全性,上述第二视频数据、第三视频数据还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种线上实时数据交互方法,其特征在于,所述方法包括:
响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求;
当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列;
将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略;
所述根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求包括:
根据所述第二视频数据判断所述用户所处的用户环境是否发生变化;
根据所述音频数据判断所述用户所处的用户环境是否存在噪声;
若判断所述用户环境未发生变化,且所述用户环境无噪声,则判断所述用户所处的用户环境满足预设要求;
所述根据所述第二视频数据判断所述用户所处的用户环境是否发生变化包括:
对所述第二视频数据进行分帧,得到第一图像序列;
将所述第一图像序列中相邻两张图像作为一个图像组,得到多个图像组;
基于图像匹配算法计算所述多个图像组中每个图像组的图像相似度值;
若所述多个图像组中图像相似度值大于第一阈值的图像组的数量大于第二阈值,则判断所述用户所处的用户环境发生变化。
2.如权利要求1所述的线上实时数据交互方法,其特征在于,所述根据所述音频数据判断所述用户所处的用户环境是否存在噪声包括:
计算所述音频数据的多个预设声音特征中的每个预设声音特征对应的第一特征值;
计算预设噪声集中各个噪声数据的所述每个预设声音特征对应的第二特征值;
分别计算所述第一特征值与所述各个噪声数据的所述每个预设声音特征对应的第二特征值之间的声音相似度值;
根据所述声音相似度值及预先确定的各个预设声音特征对应的权重参数计算所述音频数据与所述各个噪声数据的噪声相似度值;
若所述噪声相似度值大于第三阈值,则判断所述用户所处的用户环境存在噪声。
3.如权利要求1所述的线上实时数据交互方法,其特征在于,所述对所述第三视频数据进行特征处理,得到所述用户的特征序列包括:
对所述第三视频数据进行分帧,得到第二图像序列;
对所述第二图像序列中的每个图像执行尺寸归一化处理,得到第三图像序列;
对所述第三图像序列中的每个图像执行灰度归一化处理,得到第四图像序列;
基于特征提取算法对所述第四图像序列中的每个图像执行特征提取,得到所述用户的特征序列。
4.如权利要求3所述的线上实时数据交互方法,其特征在于,所述根据所述目标表情类别动态调整所述第一视频数据的播放策略包括:
将各表情类别分别添加至预先配置的等级数据表中;
根据所述等级数据表确定所述目标表情类别对应的目标表情等级;
根据预先确定的表情等级与视频播放策略之间的映射关系确定所述目标表情等级对应的目标视频播放策略,根据所述目标视频播放策略对所述第一视频数据进行播放调整。
5.如权利要求1-4任一项所述的线上实时数据交互方法,其特征在于,在根据所述目标表情类别动态调整所述第一视频数据的播放策略之后,所述方法还包括:
实时获取所述客户端的屏幕截图,判断所述屏幕截图是否为预设画面;
若判断所述屏幕截图不是预设画面,则停止播放所述第一视频数据,并发送警示信息至所述客户端。
6.一种线上实时数据交互装置,其特征在于,所述装置包括:
请求模块,用于响应用户基于客户端发出的数据交互请求,解析所述请求,得到所述请求对应的第一视频数据的标识;
判断模块,用于采集所述用户在预设时间段内的第二视频数据及音频数据,根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求;
播放模块,用于当判断所述用户所处的用户环境满足预设要求时,播放所述第一视频数据,并实时获取所述用户的第三视频数据,对所述第三视频数据执行特征处理,得到所述用户的特征序列;
调整模块,用于将所述特征序列输入表情识别模型,得到所述用户的目标表情类别,根据所述目标表情类别动态调整所述第一视频数据的播放策略;
所述根据所述第二视频数据及音频数据判断所述用户所处的用户环境是否满足预设要求包括:
根据所述第二视频数据判断所述用户所处的用户环境是否发生变化;
根据所述音频数据判断所述用户所处的用户环境是否存在噪声;
若判断所述用户环境未发生变化,且所述用户环境无噪声,则判断所述用户所处的用户环境满足预设要求;
所述根据所述第二视频数据判断所述用户所处的用户环境是否发生变化包括:
对所述第二视频数据进行分帧,得到第一图像序列;
将所述第一图像序列中相邻两张图像作为一个图像组,得到多个图像组;
基于图像匹配算法计算所述多个图像组中每个图像组的图像相似度值;
若所述多个图像组中图像相似度值大于第一阈值的图像组的数量大于第二阈值,则判断所述用户所处的用户环境发生变化。
7.如权利要求6所述的线上实时数据交互装置,其特征在于,所述根据所述音频数据判断所述用户所处的用户环境是否存在噪声包括:
计算所述音频数据的多个预设声音特征中的每个预设声音特征对应的第一特征值;
计算预设噪声集中各个噪声数据的所述每个预设声音特征对应的第二特征值;
分别计算所述第一特征值与所述各个噪声数据的所述每个预设声音特征对应的第二特征值之间的声音相似度值;
根据所述声音相似度值及预先确定的各个预设声音特征对应的权重参数计算所述音频数据与所述各个噪声数据的噪声相似度值;
若所述噪声相似度值大于第三阈值,则判断所述用户所处的用户环境存在噪声。
8.如权利要求6所述的线上实时数据交互装置,其特征在于,所述对所述第三视频数据进行特征处理,得到所述用户的特征序列包括:
对所述第三视频数据进行分帧,得到第二图像序列;
对所述第二图像序列中的每个图像执行尺寸归一化处理,得到第三图像序列;
对所述第三图像序列中的每个图像执行灰度归一化处理,得到第四图像序列;
基于特征提取算法对所述第四图像序列中的每个图像执行特征提取,得到所述用户的特征序列。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一项所述的线上实时数据交互方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有线上实时数据交互程序,所述线上实时数据交互程序可被一个或者多个处理器执行,以实现如权利要求1至5任一项所述的线上实时数据交互方法。
CN202010695107.8A 2020-07-19 2020-07-19 线上实时数据交互方法、装置、电子设备及存储介质 Active CN111738887B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010695107.8A CN111738887B (zh) 2020-07-19 2020-07-19 线上实时数据交互方法、装置、电子设备及存储介质
PCT/CN2021/095009 WO2022016977A1 (zh) 2020-07-19 2021-05-21 线上实时数据交互方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010695107.8A CN111738887B (zh) 2020-07-19 2020-07-19 线上实时数据交互方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111738887A CN111738887A (zh) 2020-10-02
CN111738887B true CN111738887B (zh) 2020-12-04

Family

ID=72656037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010695107.8A Active CN111738887B (zh) 2020-07-19 2020-07-19 线上实时数据交互方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN111738887B (zh)
WO (1) WO2022016977A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738887B (zh) * 2020-07-19 2020-12-04 平安国际智慧城市科技股份有限公司 线上实时数据交互方法、装置、电子设备及存储介质
CN113099305A (zh) * 2021-04-15 2021-07-09 上海哔哩哔哩科技有限公司 播放控制方法及装置
CN117036127B (zh) * 2023-09-28 2023-12-15 南京诚勤教育科技有限公司 一种基于教育大数据平台的教育资源共享方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024434A1 (en) * 2013-08-19 2015-02-26 Tencent Technology (Shenzhen) Company Limited Devices and methods for audio volume adjustment
CN106875767A (zh) * 2017-03-10 2017-06-20 重庆智绘点途科技有限公司 在线学习系统及方法
CN107801097A (zh) * 2017-10-31 2018-03-13 上海高顿教育培训有限公司 一种基于用户交互的视频课程播放方法
CN107886950A (zh) * 2017-12-06 2018-04-06 安徽省科普产品工程研究中心有限责任公司 一种基于语音识别的儿童视频教学方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103078599B (zh) * 2011-12-16 2016-04-06 深圳Tcl新技术有限公司 一种音视频播放设备及音量控制方法
CN104135705B (zh) * 2014-06-24 2018-05-08 惠州Tcl移动通信有限公司 一种根据不同场景模式自动调整多媒体音量的方法及系统
CN104469239B (zh) * 2014-12-05 2018-08-03 宁波菊风系统软件有限公司 一种智能移动终端的浸入式视频呈现方法
US10178301B1 (en) * 2015-06-25 2019-01-08 Amazon Technologies, Inc. User identification based on voice and face
CN106358029B (zh) * 2016-10-18 2019-05-03 北京字节跳动科技有限公司 一种视频图像处理方法和装置
CN107801096B (zh) * 2017-10-30 2020-01-14 Oppo广东移动通信有限公司 视频播放的控制方法、装置、终端设备及存储介质
CN108377422B (zh) * 2018-02-24 2020-05-19 腾讯科技(深圳)有限公司 一种多媒体内容的播放控制方法、装置及存储介质
CN111738887B (zh) * 2020-07-19 2020-12-04 平安国际智慧城市科技股份有限公司 线上实时数据交互方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024434A1 (en) * 2013-08-19 2015-02-26 Tencent Technology (Shenzhen) Company Limited Devices and methods for audio volume adjustment
CN106875767A (zh) * 2017-03-10 2017-06-20 重庆智绘点途科技有限公司 在线学习系统及方法
CN107801097A (zh) * 2017-10-31 2018-03-13 上海高顿教育培训有限公司 一种基于用户交互的视频课程播放方法
CN107886950A (zh) * 2017-12-06 2018-04-06 安徽省科普产品工程研究中心有限责任公司 一种基于语音识别的儿童视频教学方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
噪声对安全注意力影响实验研究;王春雪; 吕淑然;《中国安全生产科学技术》;20160330;第160-164页 *
噪声环境下的语音识别技术研究;龙潜;《中国博士学位论文全文数据库 信息科技辑》;20080815;I138-43 *
基于多摄像头的智能视频分析系统的研究与实现;梁赛赛;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315;I138-6394 *

Also Published As

Publication number Publication date
CN111738887A (zh) 2020-10-02
WO2022016977A1 (zh) 2022-01-27

Similar Documents

Publication Publication Date Title
CN111738887B (zh) 线上实时数据交互方法、装置、电子设备及存储介质
CN112364894B (zh) 一种基于元学习的对抗网络的零样本图像分类方法
CN106973244A (zh) 使用弱监督为图像配字幕
CN112634170B (zh) 一种模糊图像修正的方法、装置、计算机设备及存储介质
CN112183091A (zh) 问答对生成方法、装置、电子设备及可读存储介质
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
CN111681091A (zh) 基于时间域信息的金融风险预测方法、装置及存储介质
CN111898550B (zh) 建立表情识别模型方法、装置、计算机设备及存储介质
CN111860377A (zh) 基于人工智能的直播方法、装置、电子设备及存储介质
CN112668453B (zh) 视频识别方法及相关设备
US20230032728A1 (en) Method and apparatus for recognizing multimedia content
Keles et al. A cautionary note on predicting social judgments from faces with deep neural networks
CN111831715A (zh) 一种基于人工智能大数据智慧接访及存证系统及方法
CN114706985A (zh) 文本分类方法、装置、电子设备及存储介质
CN114973349A (zh) 面部图像处理方法和面部图像处理模型的训练方法
JP2023517518A (ja) ヌル値又は同等の値を有するリレーショナル・テーブルのためのベクトル埋込モデル
CN112184059A (zh) 评分分析方法、装置、电子设备及存储介质
CN116662488A (zh) 业务文档检索方法、装置、设备及存储介质
CN116450916A (zh) 基于定段分级的信息查询方法、装置、电子设备及介质
US11790018B1 (en) Apparatus for attribute traversal
CN117009621A (zh) 信息搜索方法、装置、电子设备、存储介质及程序产品
WO2022142032A1 (zh) 手写签名校验方法、装置、计算机设备及存储介质
CN112233194B (zh) 医学图片优化方法、装置、设备及计算机可读存储介质
CN113986660A (zh) 系统调整策略的匹配方法、装置、设备及存储介质
CN112989044A (zh) 文本分类方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231024

Address after: Room 2601 (Unit 07), Qianhai Free Trade Building, No. 3048, Xinghai Avenue, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong 518000

Patentee after: Shenzhen Ping An Smart Healthcare Technology Co.,Ltd.

Address before: 1-34 / F, Qianhai free trade building, 3048 Xinghai Avenue, Mawan, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong 518000

Patentee before: Ping An International Smart City Technology Co.,Ltd.