CN114268693B - 视频数据处理方法、装置、设备及介质 - Google Patents
视频数据处理方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114268693B CN114268693B CN202111527553.9A CN202111527553A CN114268693B CN 114268693 B CN114268693 B CN 114268693B CN 202111527553 A CN202111527553 A CN 202111527553A CN 114268693 B CN114268693 B CN 114268693B
- Authority
- CN
- China
- Prior art keywords
- color ring
- video color
- user
- emotion
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 37
- 230000008451 emotion Effects 0.000 claims abstract description 242
- 230000008859 change Effects 0.000 claims description 112
- 210000001747 pupil Anatomy 0.000 claims description 104
- 230000006399 behavior Effects 0.000 claims description 79
- 230000006870 function Effects 0.000 claims description 51
- 238000000034 method Methods 0.000 claims description 28
- 230000014509 gene expression Effects 0.000 claims description 26
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000009795 derivation Methods 0.000 claims description 10
- 238000007405 data analysis Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 claims description 2
- 230000002996 emotional effect Effects 0.000 claims 1
- 206010063659 Aversion Diseases 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000036391 respiratory frequency Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种视频数据处理方法、装置、设备及介质,获取目标用户在观看原始视频彩铃时的下意识行为信息;根据所述下意识行为信息确定情绪标签;根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。本申请可以根据目标用户的下意识行为信息准确地确定目标用户观看原始视频彩铃时的情绪标签,并根据目标用户的情绪标签对原始视频彩铃进行视频编辑,以在目标用户或对于该原始视频彩铃具有与目标用户相同情绪标签的用户拨打原始视频彩铃对应用户的电话时播放目标视频彩铃,使得播放的视频彩铃更加适合用户,提高视频彩铃产品与用户之间的粘性。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种视频数据处理方法、装置、设备及介质。
背景技术
现有的视频播放技术,是基于用户的主动选择行为进行视频彩铃推送,主动选择行为包括用户点击、或者多次播放相同类型的视频等,而无法顾及到用户在观看视频彩铃时不自觉做出的、体现其观看情绪的行为,使得视频彩铃产品与用户之间的粘性较低。
发明内容
本申请的主要目的在于提供一种视频数据处理方法、装置、设备及介质,旨在解决当前视频彩铃产品与用户之间的粘性较低的技术问题。
为实现上述目的,本申请实施例提供一种视频数据处理方法,所述视频数据处理方法包括:
获取目标用户在观看原始视频彩铃时的下意识行为信息;
根据所述下意识行为信息确定情绪标签;
根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。
优选地,所述根据所述下意识行为信息确定情绪标签的步骤包括:
若所述下意识行为信息包括握力变化信息与瞳孔半径信息,则分别根据所述握力变化信息与所述瞳孔半径信息生成握力变化曲线与瞳孔半径曲线;
基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
优选地,所述根据所述下意识行为信息确定情绪标签的步骤还包括:
若所述下意识行为信息不包括握力变化信息与瞳孔半径信息,则确定所述下意识行为信息中是否存在语音信息或手部动作信息;
若存在所述语音信息或所述手部动作信息,则根据所述语音信息或所述手部动作信息确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
优选地,所述基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点的步骤包括:
分别根据所述握力变化曲线与所述瞳孔半径曲线确定握力变化曲线函数与瞳孔半径曲线函数;
基于所述握力变化曲线函数与所述瞳孔半径曲线函数生成目标函数;
对所述目标函数进行求导,得到求导结果;
确定使所述求导结果为预设值的计算结果,确定所述视频彩铃的播放时长中与所述计算结果对应的时间点;
将所述时间点确定为所述目标用户基于所述视频彩铃的情绪变化点。
优选地,所述根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃的步骤之后,还包括:
若检测所述目标用户再次呼叫所述原始视频彩铃对应的用户,则为所述目标用户播放所述目标视频彩铃;
若检测到与所述目标用户的同类用户数量达到预设人数阈值,则将所述目标视频彩铃进行共享,其中,所述同类用户为针对所述原始视频彩铃,与所述目标用户具有相同情绪标签的用户。
优选地,所述根据所述情绪变化点确定所述目标用户的情绪标签的步骤包括:
获取所述目标用户在所述情绪变化点的目标表情;
提取所述目标表情中的用户特征;
根据所述用户特征确定所述目标用户的情绪标签。
优选地,所述根据所述用户特征确定所述目标用户的情绪标签的步骤包括:
根据所述用户特征中的瞳孔大小与牙齿数量确定所述目标用户的情绪标签;或
获取所述目标用户的呼吸变化或脉搏速度,并确定所述呼吸变化的呼吸峰值位置或所述脉搏速度的脉搏峰值位置,根据所述用户特征中的瞳孔大小与所述呼吸峰值位置或所述脉搏峰值位置确定所述目标用户的情绪标签。
为实现上述目的,本申请还提供一种视频数据处理装置,所述视频数据处理装置包括:
获取模块,用于获取目标用户在观看原始视频彩铃时的下意识行为信息;
确定模块,用于根据所述下意识行为信息确定情绪标签;
编辑模块,用于根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。
进一步地,为实现上述目的,本申请还提供一种视频数据处理设备,所述视频数据处理设备包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的视频数据处理程序,所述视频数据处理程序被所述处理器执行时实现上述的视频数据处理方法的步骤。
进一步地,为实现上述目的,本申请还提供一种介质,所述介质为计算机可读存储介质,所述计算机可读存储介质上存储有视频数据处理程序,所述视频数据处理程序被处理器执行时实现上述的视频数据处理方法的步骤。
进一步地,为实现上述目的,本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述的视频数据处理方法的步骤。
本申请实施例提供一种视频数据处理方法、装置、设备及介质,获取目标用户在观看原始视频彩铃时的下意识行为信息;根据所述下意识行为信息确定情绪标签;根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。本申请可以根据目标用户的下意识行为信息准确地确定目标用户观看原始视频彩铃时的情绪标签,并根据目标用户的情绪标签对原始视频彩铃进行视频编辑,以在目标用户或对于该原始视频彩铃具有与目标用户相同情绪标签的用户拨打原始视频彩铃对应用户的电话时播放目标视频彩铃,使得播放的视频彩铃更加适合用户,提高视频彩铃产品与用户之间的粘性。
附图说明
图1为本申请视频数据处理方法实施例方案涉及的硬件运行环境的结构示意图;
图2为本申请视频数据处理方法第一实施例的流程示意图;
图3为本申请视频数据处理方法第二实施例的流程示意图;
图4为本申请视频数据处理方法第二实施例的握力变化曲线图;
图5为本申请视频数据处理方法第二实施例的瞳孔半径曲线图;
图6为本申请视频数据处理方法第三实施例的流程示意图;
图7为本申请视频数据处理装置较佳实施例的功能模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种视频数据处理方法、装置、设备及介质,获取目标用户在观看原始视频彩铃时的下意识行为信息;根据所述下意识行为信息确定情绪标签;根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。本申请可以根据目标用户的下意识行为信息准确地确定目标用户观看原始视频彩铃时的情绪标签,并根据目标用户的情绪标签对原始视频彩铃进行视频编辑,以在目标用户或对于该原始视频彩铃具有与目标用户相同情绪标签的用户拨打原始视频彩铃对应用户的电话时播放目标视频彩铃,使得播放的视频彩铃更加适合用户,提高视频彩铃产品与用户之间的粘性。
如图1所示,图1是本申请实施例方案涉及的硬件运行环境的视频数据处理设备结构示意图。
本申请实施例视频数据处理设备可以是PC、服务器等不可移动式终端设备,也可以是平板电脑、便携计算机、智能手机等可移动式终端设备。
如图1所示,该视频数据处理设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的视频数据处理设备结构并不构成对视频数据处理设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及视频数据处理程序。
在图1所示的设备中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的视频数据处理程序,并执行以下操作:
获取目标用户在观看原始视频彩铃时的下意识行为信息;
根据所述下意识行为信息确定情绪标签;
根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。
进一步地,所述根据所述下意识行为信息确定情绪标签的步骤包括:
若所述下意识行为信息包括握力变化信息与瞳孔半径信息,则分别根据所述握力变化信息与所述瞳孔半径信息生成握力变化曲线与瞳孔半径曲线;
基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
进一步地,所述根据所述下意识行为信息确定情绪标签的步骤还包括:
若所述下意识行为信息不包括握力变化信息与瞳孔半径信息,则确定所述下意识行为信息中是否存在语音信息或手部动作信息;
若存在所述语音信息或所述手部动作信息,则根据所述语音信息或所述手部动作信息确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
进一步地,所述基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点的步骤包括:
分别根据所述握力变化曲线与所述瞳孔半径曲线确定握力变化曲线函数与瞳孔半径曲线函数;
基于所述握力变化曲线函数与所述瞳孔半径曲线函数生成目标函数;
对所述目标函数进行求导,得到求导结果;
确定使所述求导结果为预设值的计算结果,确定所述视频彩铃的播放时长中与所述计算结果对应的时间点;
将所述时间点确定为所述目标用户基于所述视频彩铃的情绪变化点。
进一步地,所述根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃的步骤之后,处理器1001可以用于调用存储器1005中存储的视频数据处理程序,并执行以下操作:
若检测所述目标用户再次呼叫所述原始视频彩铃对应的用户,则为所述目标用户播放所述目标视频彩铃;
若检测到与所述目标用户的同类用户数量达到预设人数阈值,则将所述目标视频彩铃进行共享,其中,所述同类用户为针对所述原始视频彩铃,与所述目标用户具有相同情绪标签的用户。
进一步地,所述根据所述情绪变化点确定所述目标用户的情绪标签的步骤包括:
获取所述目标用户在所述情绪变化点的目标表情;
提取所述目标表情中的用户特征;
根据所述用户特征确定所述目标用户的情绪标签。
进一步地,所述根据所述用户特征确定所述目标用户的情绪标签的步骤包括:
根据所述用户特征中的瞳孔大小与牙齿数量确定所述目标用户的情绪标签;或
获取所述目标用户的呼吸变化或脉搏速度,并确定所述呼吸变化的呼吸峰值位置或所述脉搏速度的脉搏峰值位置,根据所述用户特征中的瞳孔大小与所述呼吸峰值位置或所述脉搏峰值位置确定所述目标用户的情绪标签。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
参照图2,图2为本申请第一实施例提供的一种视频数据处理方法的流程示意图。该实施例中,所述视频数据处理方法包括以下步骤:
步骤S10,获取目标用户在观看原始视频彩铃时的下意识行为信息;
本实施例中视频数据处理方法应用于视频数据处理系统,视频数据处理系统可以包括智能终端与视频彩铃平台,其中智能终端可以为智能手机(后续又称为手机终端)、平板电脑等智能移动终端,可以检测用户对手机终端的握力值、眼睛瞳孔的半径以及用户呼吸速度与脉搏速度,甚至用户的语音或手部动作等用户信息并传输至视频彩铃平台,视频彩铃平台可以供手机终端设置视频彩铃并将对应的视频彩铃发送至手机终端进行播放,同时可以接收手机终端发送的用户信息,根据该用户信息确定用户对于拨打电话时播放的原始视频彩铃的情绪标签,并根据用户的情绪标签对播放的原始视频彩铃进行相应的编辑,以在该用户及对于上述播放的原始视频彩铃具有与该用户同类情绪标签的用户,在拨打原始视频彩铃对应用户的电话时下发编辑后的视频彩铃并由手机终端播放给该类用户观看。以此使播放的视频彩铃更适合用户,提高用户对于视频彩铃的体验感,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
具体地,在目标用户向某一用户拨打电话时,目标用户的手机终端会获取所拨打用户预先设置的视频彩铃并将该视频彩铃播放给目标用户观看,使得目标用户在电话拨叫后等待接听的过程中不会显得无聊,提高用户的体验感,其中目标用户为任意具有可播放视频彩铃的手机终端的用户,某一用户为任意设置了视频彩铃的用户。在目标用户观看视频彩铃的过程中,视频数据处理系统通过手机终端的摄像头实时获取目标用户的眼睛瞳孔半径、通过传感器检测用户对于手机终端的握力值,或者,通过录音设备获取用户的语音,又或者通过摄像头获取用户的手部动作;并将检测的数据实时上传至视频彩铃平台,由该观看过程的数据形成目标用户观看视频彩铃时的下意识行为信息。以便后续可以根据下意识行为信息确定目标用户的情绪标签;并根据情绪标签对视频彩铃进行视频编辑得到目标视频彩铃,在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。另外,本实施例中还可以通过摄像头对目标用户观看该视频彩铃的全程进行监控,以此得到目标用户在观看该视频彩铃时的全部表情。
步骤S20,根据所述下意识行为信息确定情绪标签;
在获取到目标用户在观看视频彩铃时的下意识行为信息后,若下意识行为信息中包括握力变化信息与瞳孔半径信息,视频彩铃平台可以优先根据握力变化信息与瞳孔半径信息确定目标用户在观看原始视频彩铃时的情绪变化点,并进一步根据情绪变化点确定出目标用户的情绪标签,其中,情绪标签在本实施例中可以包括微笑、厌恶、恐惧、非常感兴趣等。而若获取的下意识行为信息中不存在握力变化信息与瞳孔半径信息,则判断下意识行为信息中是否存在语音信息或手部动作信息,若存在则提取下意识行为信息中的语音信息或手部动作信息,基于语音信息或手部动作信息确定目标用户在观看原始视频彩铃时的情绪变化点,并进一步根据情绪变化点确定出目标用户的情绪标签。以便于后续根据情绪标签对视频彩铃进行视频编辑以此得到目标视频彩铃,在目标用户及对于原始视频彩铃具有与目标用户同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
步骤S30,根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。
在根据下意识行为信息确定目标用户的情绪标签后,视频彩铃平台根据情绪标签从预先设置的多种视频编辑方式中查找与当前情绪标签对应的视频编辑方式,将查找到的与当前情绪标签对应的视频编辑方式确定为目标视频编辑方式;根据确定的目标视频编辑对视频彩铃进行视频编辑,得到目标视频彩铃。其中,预先设置的多种视频编辑方式可以包括保留该段视频彩铃、删除该段视频彩铃、加快该段视频彩铃播放速度、将该帧视频内容进行二次复制等,因此,在根据情绪标签对视频彩铃进行视频编辑得到目标视频彩铃后,即根据目标用户在观看原视频彩铃时的感受对该视频彩铃进行了编辑,使得编辑后的视频彩铃即目标视频彩铃更适合该用户观看。另外,若视频彩铃的播放过程中未检测用户明显的情绪变化,则不对该条视频彩铃进行任何的修改,但视频彩铃平台将对在后续的呼叫中对该用户屏蔽该条视频彩铃内容,并向其推送其他的视频彩铃。由此,使得目标用户具有更好的视频彩铃观感,提高用户的观感体验,使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
具体地,所述根据所述情绪标签对所述视频彩铃进行视频编辑得到目标视频彩铃的步骤包括:
步骤S31,根据所述情绪标签查找对应的视频编辑方式,得到目标视频编辑方式;
步骤S32,根据所述目标视频编辑对所述视频彩铃进行视频编辑,得到目标视频彩铃。
在根据下意识行为信息确定目标用户的情绪标签后,由于本实施例中情绪标签可以包括微笑、厌恶、恐惧、非常感兴趣等,以及视频编辑方式可以包括保留该段视频彩铃、删除该段视频彩铃、加快该段视频彩铃播放速度、将该帧视频内容进行二次复制等,并且本实施例中每一情绪标签预先与一视频编辑方式对应关联,本实施例中微笑、厌恶、恐惧、非常感兴趣等情绪标签分别对应保留该段视频彩铃、删除该段视频彩铃、加快该段视频彩铃播放速度、将该帧视频内容进行二次复制等视频编辑方式。因此,本实施例中视频彩铃平台可以根据目标用户当前的情绪标签查找对其观看的视频彩铃进行编辑的视频编辑方式,以此得到目标视频编辑方式。例如:若目标用户的情绪标签包括微笑,则根据情绪标签与视频编辑方式之间的关联关系,查找与微笑对应的保留该段视频彩铃的视频编辑方式并确定为目标视频编辑方式;又例如,若目标用户的情绪标签包括厌恶,则根据情绪标签与视频编辑方式之间的关联关系,查找与厌恶对应的删除该段视频彩铃的视频编辑方式并确定为目标视频编辑方式。以此类推,在此不进行一一举例,并且需要说明的是,对一个视频彩铃进行编辑时可能针对视频彩铃的不同部分进行相同或不同的视频编辑方式,即如果目标用户在观看视频彩铃时具有多种情绪变化,则会确定出多个情绪标签。进一步地,在确定出目标视频编辑方式后,根据目标视频编辑方式对视频彩铃的相应部分进行视频编辑,得到目标视频彩铃。例如:若情绪标签为微笑,则采用保留该段视频彩铃的视频编辑方式对视频彩铃中相应位置的部分视频进行视频编辑,同时将目标用户在观看这部分视频的帧画面时所对应表情用小气泡在该段视频中进行展示,得到目标视频彩铃;若情绪标签为厌恶:针对目标用户采用删除该段视频彩铃的视频编辑方式对视频彩铃中相应位置的部分视频进行视频编辑,其中删除视频内容在本实施例中包括该画面帧前后0.5秒的视频内容(共计1秒),得到目标视频彩铃;若情绪标签为恐惧,则采用加快该段视频彩铃播放速度的视频编辑方式对视频彩铃中相应位置的部分视频进行视频编辑,同时将目标用户观看时的表情采用气泡框的方式显示在该段视频彩铃内容中,得到目标视频彩铃;若情绪标签为非常感兴趣,则采用将该帧视频内容进行二次复制的视频编辑方式对视频彩铃中相应位置的部分视频进行视频编辑,使得该段视频可在视频中重复播放,得到目标视频彩铃。需要说明的是,以上修改只对目标用户进行,其他用户观看时,将对其用户行为进行重新统计。本实施例中若目标用户对一个视频彩铃具有多个情绪标签,则分别通过多个情绪标签对应的视频编辑方式对视频彩铃的相应位置进行视频编辑,得到目标视频彩铃。在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
进一步地,所述根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃的步骤之后,还包括:
步骤S40,若检测所述目标用户再次呼叫所述原始视频彩铃对应的用户,则为所述目标用户播放所述目标视频彩铃;
在检测到目标用户在本次呼叫完成后再一次拨打原始视频彩铃对应用户的电话时,即可通过下发目标视频彩铃来替换原始视频彩铃,由手机终端播放目标视频彩铃给目标用户观看。具体地,对于上述对原始视频彩铃进行编辑得到的目标视频彩铃,视频彩铃平台通过目标视频彩铃直接覆盖掉原始视频彩铃。后续主叫用户拨打被叫时,将直接播放前序观看者的“情绪共享视频彩铃”(即目标视频彩铃);当后续的主叫用户在观看的过程中,视频彩铃平台对其观看行为同样进行记录,并上述的处理方法重新根据用户的观看情绪进行相关的视频编辑。本实施例中视频彩铃覆盖形式可以为:视频彩铃平台根据每一位观看者的行为对观看的原始视频彩铃都进行基于情绪的视频彩铃修改行为,并将修改的视频彩铃覆盖掉之前的视频彩铃。
步骤S50,若检测到与所述目标用户的同类用户数量达到预设人数阈值,则将所述目标视频彩铃进行共享,其中,所述同类用户为针对所述原始视频彩铃,与所述目标用户具有相同情绪标签的用户。
同时,视频彩铃平台可以设置用户群组分类播放,具体地,视频彩铃平台可以将针对原始视频彩铃,与目标用户具有相同情绪标签的用户作为目标用户的同类用户,并检测与统计同类用户数量,并将同类用户数量与预设作为群组设置阈值的人数阈值进行比较,当同类用户数量大于或等于该人数阈值时,即可将目标用户及其同类用户设置为一个群组,例如当视频彩铃平台在统计用户的观看行为中发现存在两位或多位观看用户(如目标用户与一个或多个其他用户)对于原始视频彩铃的同一视频帧产生的观看情绪相同(即具有同类情绪标签)时,将对这两位或多位用户进行标记设置为一个群组,并将其相同的用户行为保留剪辑后,在这类即该群组的用户拨打原始视频彩铃对应用户的电话时进行目标视频彩铃的下发与播放。此外,对情绪行为较为相同的用户,彩铃平台分析用户对新的视频彩铃接受程度,最终对群组用户在拨打用户的视频彩铃时,播放相同的视频彩铃内容,并对群组用户提供组内聊天窗口,视频彩铃播放过程中可进行互动。
本实施例提供一种视频数据处理方法,获取目标用户在观看原始视频彩铃时的下意识行为信息;根据所述下意识行为信息确定情绪标签;根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。本申请可以根据目标用户的下意识行为信息准确地确定目标用户观看原始视频彩铃时的情绪标签,并根据目标用户的情绪标签对原始视频彩铃进行视频编辑,以在目标用户或对于该原始视频彩铃具有与目标用户相同情绪标签的用户拨打原始视频彩铃对应用户的电话时播放目标视频彩铃,使得播放的视频彩铃更加适合用户,提高视频彩铃产品与用户之间的粘性。
在本申请的一具体实施例中,用户A观看用户B视频彩铃,用户A的手机终端开启握力值检测、人眼瞳孔半径检测等功能;经过检测记录下用户A的握力值和瞳孔半径信息,并上传至视频彩铃平台,由视频彩铃平台根据握力值和瞳孔半径信息确定用户A的情绪标签,并根据情绪标签对用户A观看的视频彩铃进行修改;当根据用户A的情绪标签完成视频彩铃的修改后,将修改的视频彩铃保存到彩铃播放平台,并覆盖当前用户B的视频彩铃。对情绪行为较为相同的用户,彩铃平台分析用户对新的视频彩铃接受程度,最终对群组用户在拨打用户的视频彩铃时,播放相同的视频彩铃内容,如当群组用户中的用户C给用户B拨打电话时,视频彩铃平台向用户C播放修改并覆盖后的视频彩铃,并记录用户C的情绪,开启新的修改。
进一步地,参照图3,基于本申请视频数据处理方法的第一实施例,提出本申请视频数据处理方法的第二实施例,在第二实施例中,所述根据所述下意识行为信息确定情绪标签的步骤包括:
步骤S211,若所述下意识行为信息包括握力变化信息与瞳孔半径信息,则分别根据所述握力变化信息与所述瞳孔半径信息生成握力变化曲线与瞳孔半径曲线;
步骤S212,基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
步骤S213,根据所述情绪变化点确定所述目标用户的情绪标签。
在获取到目标用户在观看视频彩铃时的下意识行为信息后,先识别下意识行为信息中是否包括握力变化信息与瞳孔半径信息,若经识别确定下意识行为信息中包括握力变化信息与瞳孔半径信息,视频彩铃平台可以优先根据握力变化信息与瞳孔半径信息确定目标用户在观看原始视频彩铃时的情绪变化点,并进一步根据情绪变化点获取目标用户在该点的表情,根据目标用户在该点的表情确定出目标用户的情绪标签,其中,情绪标签在本实施例中可以包括微笑、厌恶、恐惧、非常感兴趣等。而若确定获取的下意识行为信息中不存在握力变化信息与瞳孔半径信息,则进一步判断下意识行为信息中是否包括语音信息或手部动作信息,若存在则提取下意识行为信息中的语音信息或手部动作信息,基于语音信息或手部动作信息确定目标用户在观看原始视频彩铃时的情绪变化点,并进一步根据情绪变化点获取目标用户在该点的表情,根据目标用户在该点的表情确定出目标用户的情绪标签。以便于后续根据情绪标签对视频彩铃进行视频编辑以此得到目标视频彩铃,在目标用户及其同类用户(即对于原始视频彩铃具有与目标用户同类情绪标签的用户)拨打原视频彩铃对应用户的电话时,基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
具体地,在检测下意识行为信息中是否包括握力变化信息与瞳孔半径信息后,若经检测确定下意识行为信息中包括握力半径信息与瞳孔半径信息,视频彩铃平台可以根据握力变化信息中各时间点的握力值绘制出握力变化曲线,以及根据瞳孔半径信息中各时间点的瞳孔半径绘制出瞳孔半径曲线,其中,握力变化曲线与瞳孔半径曲线分别如图4与图5所示,图4中纵坐标为握力值,横坐标为时间(即视频播放时长,采样率50Hz),图5中横坐标为时间(即视频播放时长,采样率50Hz),纵坐标为瞳孔半径,由各时间点上的握力值及瞳孔半径分别形成握力变化曲线函数与瞳孔半径曲线。进一步地,根据握力变化曲线生成握力变化曲线函数,以及根据瞳孔半径曲线生成瞳孔半径曲线函数。基于握力变化曲线函数与瞳孔半径曲线函数生成目标函数;并对目标函数进行数据分析,确定出目标用户基于视频彩铃的情绪变化点,并根据情绪变化点确定目标用户的情绪标签,以根据情绪标签对视频彩铃进行视频编辑得到目标视频彩铃,在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。其中,根据情绪变化点确定目标用户的情绪标签参见步骤S2131-S2133,在此不进行具体阐述。
进一步地,所述基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点的步骤包括:
步骤S2121,分别根据所述握力变化曲线与所述瞳孔半径曲线确定握力变化曲线函数与瞳孔半径曲线函数;
步骤S2122,基于所述握力变化曲线函数与所述瞳孔半径曲线函数生成目标函数;
步骤S2123,对所述目标函数进行求导,得到求导结果;
步骤S2124,确定使所述求导结果为预设值的计算结果,确定所述视频彩铃的播放时长中与所述计算结果对应的时间点;
步骤S2125,将所述时间点确定为所述目标用户基于所述视频彩铃的情绪变化点。
在分别根据握力变化信息与瞳孔半径信息生成握力变化曲线与瞳孔半径曲线后,视频彩铃平台根据握力变化曲线生成握力变化曲线函数,具体为根据握力变化曲线生成握力变化曲线函数f(x);以及根据瞳孔半径曲线生成瞳孔半径曲线函数,具体为根据所述瞳孔半径曲线生成瞳孔半径曲线函数g(y);进一步地,根据预设的分析曲线函数结合握力变化曲线函数与瞳孔半径曲线函数生成目标函数,其中预设的分析曲线函数如下公式所示:
F(z)=f(x)*g(y);
其中,F(z)为目标函数,f(x)为握力变化曲线函数,g(y)为瞳孔半径曲线函数。
进一步地,对目标函数进行求导并确定导数值为预设值的时间点,本实施例中预设值为0,即确定目标函数中导数值为0的点作为情绪变化点。具体地,对目标函数进行数据分析,确定目标用户基于视频彩铃的情绪变化点时,视频彩铃平台对目标函数F(z)=f(x)*g(y)进行求导,求导后得到求导结果。进一步地,本实施例中令求导结果为0,并计算出使求导结果为0的x值,得到令求导结果为预设值的计算结果,由于目标函数由握力变化曲线函数与瞳孔半径曲线函数生成,因此目标函数中的变量也包含时间,且该时间与视频彩铃的播放时长对应。因此,本实施例中可以将计算结果的数值作为视频彩铃的播放时长中的时间点;并将该时间点确定为目标用户基于视频彩铃的情绪变化点(即目标用户在该时间点产生情绪变化),若存在多个时间点对应的数值使求导结果为预设值(即为0),说明目标用户在观看视频彩铃的过程中存在多次的情绪变化,则将多个时间点均确定为目标用户基于视频彩铃的情绪变化点。以在后续查找每一时间点即情绪变化点时目标用户的观看表情变化,进行实时表情抓取,将抓取到的表情与当前视频彩铃播放帧进行一一对应存储,并根据表情确定出相应的视频编辑方式后按照该视频编辑方式对指定部分视频帧进行编辑,便于在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于编辑后的视频彩铃进行视频彩铃播放,以此提高用户对于视频彩铃的体验感,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
进一步地,所述根据所述下意识行为信息确定情绪标签的步骤还包括:
步骤S221,若所述下意识行为信息不包括握力变化信息与瞳孔半径信息,则确定所述下意识行为信息中是否存在语音信息或手部动作信息;
步骤S222,若存在所述语音信息或所述手部动作信息,则根据所述语音信息或所述手部动作信息确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
步骤S223,根据所述情绪变化点确定所述目标用户的情绪标签。
可以理解地,当上述的判定信息缺失,即下意识行为信息中不存在握力变化信息与瞳孔半径信息时,可以进一步检测下意识行为信息中是否存在根据手机终端周围检测到的、目标用户在观看视频彩铃时发出的语音或观看视频彩铃时的手部动作信息。具体地,当目标用户的手机终端因处于固定位置而无法感知握力值使得无法获取目标用户在观看视频彩铃时的握力变化信息,可以采用手机终端采集目标用户的语音(即音频信息)或目标用户的手部动作信息进行情绪样本采集(即进行目标用户的情绪标签的确定)。更具体地,当手机终端开始播放视频彩铃,手机终端却无法进行手机握力值检测时,手机终端将搜索目标用户(即手机终端的主人)在观看这段视频彩铃时的语音进行检测并记录。手机终端以50Hz的采样频率,对接收到的语音实时上传到视频彩铃平台。进一步地,若确定下意识行为信息中存在语音信息,视频彩铃平台可以根据语音信息勾画函数曲线,设为y(t),并对函数y(t)进行求导处理,确定导数值为0对应的视频彩铃播放的时间点作为目标用户的情绪变化点,并根据情绪变化点确定目标用户的情绪标签,具体可以查找该时间点(即情绪变化点)是否存在目标用户的瞳孔半径与牙齿数量,若存在,则根据本申请实施例三中根据瞳孔大小与牙齿数量确定目标用户的情绪标签,或根据用户特征中的瞳孔大小与呼吸峰值位置或脉搏峰值位置确定目标用户的情绪标签的情绪标签判定过程进行情绪标签的确定,具体过程参见本申请实施例三,在此不再赘述。若无法查找,则不进行后续处理,可以输出无法进行情绪判定的提示信息。此外,在握力变化信息无法检测时,若检测到下意识行为信息中包括手机终端通过摄像头获取的目标用户在各观看时间点的手部动作信息,若存在则通过手部动作信息检测在各观看时间点目标用户的眼睛是否有被手掌遮蔽,若此时目标用户的眼睛处于被遮蔽状态,直接将该观看时间点当作导数值为0的处理方式进行处理,即将目标用户的眼睛被手掌遮蔽的时间点确定为情绪变化点,并可以直接确定目标用户的情绪标签为恐惧/厌恶。
本实施例若下意识行为信息中包括握力变化信息与瞳孔半径信息,则可以分别根据握力变化信息与瞳孔半径信息生成握力变化曲线与瞳孔半径曲线;基于握力变化曲线与瞳孔半径曲线进行数据分析,确定目标用户基于所述视频彩铃的情绪变化点;并根据情绪变化点确定目标用户的情绪标签。在下意识行为信息中不包括握力变化信息与瞳孔半径信息时,还可以根据下意识行为信息中的语音信息或手部动作信息确定目标用户基于所述视频彩铃的情绪变化点,并根据情绪变化点确定目标用户的情绪标签;以便于后续根据情绪标签对视频彩铃进行视频编辑得到目标视频彩铃,在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,提高视频彩铃产品与用户之间的粘性。
进一步地,参照图6,基于本申请视频数据处理方法的第二实施例,提出本申请视频数据处理方法的第三实施例,在第三实施例中,所述根据所述情绪变化点确定所述目标用户的情绪标签的步骤包括:
步骤S2131,获取所述目标用户在所述情绪变化点的目标表情;
步骤S2132,提取所述目标表情中的用户特征;
步骤S2133,根据所述用户特征确定所述目标用户的情绪标签。
在基于握力变化曲线与瞳孔半径曲线进行数据分析,确定目标用户基于视频彩铃的情绪变化点后,视频彩铃平台获取目标用户在该情绪变化点对应的表情作为目标表情,具体地,根据情绪变化点对应的时间点在拍摄的用户表情中进行查找,从目标用户在观看该视频彩铃的过程中产生的所有表情中查找出与该时间点对应的表情作为目标表情,目标表情表征目标用户在观看视频彩铃中该时间点对应的视频帧时的情绪变化,通过摄像头获取的表情均为目标用户的面部图像。在获取到目标用户的目标表情后,对目标表情进行特征识别,从目标表情中提取出瞳孔半径以及牙齿数量等用户特征。更进一步地,根据用户特征中的瞳孔大小与牙齿数量结合情绪标签判定标准确定出目标用户的情绪标签。通过准确地确定目标用户在观看该视频彩铃时的情绪标签,便于后续根据情绪标签准确地对目标用户所观看的视频彩铃进行编辑,以在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
进一步地,所述根据所述用户特征确定所述目标用户的情绪标签的步骤包括:
步骤A,根据所述用户特征中的瞳孔大小与牙齿数量确定所述目标用户的情绪标签;
在提取出目标表情中的用户特征后,根据用户特征中的瞳孔大小与牙齿数量结合情绪标签判定标准确定出目标用户的情绪标签,其中,情绪标签判定标准在本实施例中可以包括第一标准与第二标准,第一标准如表1所示:
表1
因此,若用户特征中的瞳孔大小为0即表示目标用户闭眼,且牙齿数量为0即表示目标用户闭嘴,则根据表1可以确定情绪标签为厌恶或恐惧;若用户特征中瞳孔大小为2.5mm、牙齿数量为9颗+,则根据表1可以确定情绪标签为恐惧;若用户特征中瞳孔大小为3mm、牙齿数量为8颗+,则根据表1可以确定情绪标签为微笑;若用户特征中瞳孔大小为3.5mm、牙齿数量为9颗+,则根据表1可以确定情绪标签为感兴趣;若用户特征中瞳孔大小为4mm、牙齿数量为8颗+,则根据表1可以确定情绪标签为非常感兴趣;若用户特征中瞳孔大小为4.2mm、牙齿数量为8颗+,则根据表1可以确定情绪标签为恐惧等等。
或
步骤B,获取所述目标用户的呼吸变化或脉搏速度,并确定所述呼吸变化的呼吸峰值位置或所述脉搏速度的脉搏峰值位置,根据所述用户特征中的瞳孔大小与所述呼吸峰值位置或所述脉搏峰值位置确定所述目标用户的情绪标签。
为保证获取数据分析的情绪标签的准确性,手机终端还需记录目标用户在观看视频彩铃时的脉搏跳动信息或呼吸频率并上传至视频彩铃平台。以在用户特征中没有同时包含瞳孔半径以及牙齿数量时,可以由当前存在的用户特征、目标用户的脉搏跳动信息或呼吸频率结合第二标准准确地确定目标用户的情绪标签,其中,第二标准如表2所示:
表2
对于上述情绪标签判定过程中可能出现的用户牙齿无法清晰展示而影响判定结果的问题,在导数值为0的时间点,若无法从目标表情中查询到牙齿数量,则通过呼吸变化或脉搏速度的信息对该时间点进行是否为脉搏峰值或呼吸峰值查询,若为峰值点,则可不参考牙齿数量进行判定。具体地,若用户特征中瞳孔大小为0即闭眼且是峰值点,则根据表2可以确定情绪标签为恐惧或厌恶;若用户特征中瞳孔大小为2.5mm且是峰值点,则根据表2可以确定情绪标签为恐惧;若用户特征中瞳孔大小为3mm且是峰值点,则根据表2可以确定情绪标签为微笑;若用户特征中瞳孔大小为3.5mm且是峰值点,则根据表2可以确定情绪标签为感兴趣;若用户特征中瞳孔大小为4mm且是峰值点,则根据表2可以确定情绪标签为非常感兴趣;若用户特征中瞳孔大小为4.2mm且是峰值点,则根据表2可以确定情绪标签为恐惧等等。
本实施例可以根据目标用户在观看视频彩铃时的情绪变化点对应的表情结合情绪标签判定标准准确地确定目标用户的情绪标签,便于后续根据情绪标签准确地对目标用户所观看的视频彩铃进行编辑,以在目标用户及与目标用户具有同类情绪标签的用户拨打原视频彩铃对应用户的电话时基于目标视频彩铃进行视频彩铃播放,使得编辑后的视频彩铃更贴近用户,提高用户的观感体验,在使视频彩铃在播放内容上具有更高的灵活性的同时提高视频彩铃产品与用户之间的粘性。
进一步地,本申请还提供一种视频数据处理装置。
参照图7,图7为本申请视频数据处理装置第一实施例的功能模块示意图。
所述视频数据处理装置包括:
获取模块10,用于获取目标用户在观看原始视频彩铃时的下意识行为信息;
确定模块20,用于根据所述下意识行为信息确定情绪标签;
编辑模块30,用于根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃。
此外,本申请还提供一种介质,所述介质优选为计算机可读存储介质,其上存储有视频数据处理程序,所述视频数据处理程序被处理器执行时实现上述视频数据处理方法各实施例的步骤。
此外,本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述视频数据处理方法各实施例的步骤。
在本申请视频数据处理设备、计算机可读存储介质和计算机程序产品的实施例中,包含了上述视频数据处理方法各实施例的全部技术特征,说明和解释内容与上述视频数据处理方法各实施例基本相同,在此不做赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是固定终端,如物联网智能设备,包括智能空调、智能电灯、智能电源、智能路由器等智能家居;也可以是移动终端,包括智能手机、可穿戴的联网AR/VR装置、智能音箱、自动驾驶汽车等诸多联网设备)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (9)
1.一种视频数据处理方法,其特征在于,所述视频数据处理方法包括:
获取目标用户在观看原始视频彩铃时的下意识行为信息,所述原始视频彩铃为所述目标用户在本次呼叫第一用户时播放的视频彩铃;
根据所述下意识行为信息确定情绪标签;
根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃,所述目标视频彩铃为所述目标用户再一次呼叫所述第一用户时播放的视频彩铃;
若检测到所述目标用户再次呼叫所述第一用户,则为所述目标用户播放所述目标视频彩铃;
若检测到与所述目标用户的同类用户数量达到预设人数阈值,则将所述目标视频彩铃进行共享,其中,所述同类用户为针对所述原始视频彩铃,与所述目标用户具有相同情绪标签的用户;
在所述同类用户播放所述目标视频彩铃的情况下,提供组内聊天窗口,以供所述同类用户在所述目标视频彩铃播放的过程中通过所述组内聊天窗口进行互动。
2.如权利要求1所述的视频数据处理方法,其特征在于,所述根据所述下意识行为信息确定情绪标签的步骤包括:
若所述下意识行为信息包括握力变化信息与瞳孔半径信息,则分别根据所述握力变化信息与所述瞳孔半径信息生成握力变化曲线与瞳孔半径曲线;
基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
3.如权利要求2所述的视频数据处理方法,其特征在于,所述根据所述下意识行为信息确定情绪标签的步骤还包括:
若所述下意识行为信息不包括握力变化信息与瞳孔半径信息,则确定所述下意识行为信息中是否存在语音信息或手部动作信息;
若存在所述语音信息或所述手部动作信息,则根据所述语音信息或所述手部动作信息确定所述目标用户在观看所述原始视频彩铃时的情绪变化点;
根据所述情绪变化点确定所述目标用户的情绪标签。
4.如权利要求2所述的视频数据处理方法,其特征在于,所述基于所述握力变化曲线与所述瞳孔半径曲线进行数据分析,确定所述目标用户在观看所述原始视频彩铃时的情绪变化点的步骤包括:
分别根据所述握力变化曲线与所述瞳孔半径曲线确定握力变化曲线函数与瞳孔半径曲线函数;
基于所述握力变化曲线函数与所述瞳孔半径曲线函数生成目标函数;
对所述目标函数进行求导,得到求导结果;
确定使所述求导结果为预设值的计算结果,确定所述视频彩铃的播放时长中与所述计算结果对应的时间点;
将所述时间点确定为所述目标用户基于所述视频彩铃的情绪变化点。
5.如权利要求2所述的视频数据处理方法,其特征在于,所述根据所述情绪变化点确定所述目标用户的情绪标签的步骤包括:
获取所述目标用户在所述情绪变化点的目标表情;
提取所述目标表情中的用户特征;
根据所述用户特征确定所述目标用户的情绪标签。
6.如权利要求5所述的视频数据处理方法,其特征在于,所述根据所述用户特征确定所述目标用户的情绪标签的步骤包括:
根据所述用户特征中的瞳孔大小与牙齿数量确定所述目标用户的情绪标签;或
获取所述目标用户的呼吸变化或脉搏速度,并确定所述呼吸变化的呼吸峰值位置或所述脉搏速度的脉搏峰值位置,根据所述用户特征中的瞳孔大小与所述呼吸峰值位置或所述脉搏峰值位置确定所述目标用户的情绪标签。
7.一种视频数据处理装置,其特征在于,所述视频数据处理装置包括:
获取模块,用于获取目标用户在观看原始视频彩铃时的下意识行为信息,所述原始视频彩铃为所述目标用户在本次呼叫第一用户时播放的视频彩铃;
确定模块,用于根据所述下意识行为信息确定情绪标签;
编辑模块,用于根据所述情绪标签对所述视频彩铃进行视频编辑,得到目标视频彩铃,所述目标视频彩铃为所述目标用户再一次呼叫所述第一用户时播放的视频彩铃;
播放模块,用于若检测到所述目标用户再次呼叫所述第一用户,则为所述目标用户播放所述目标视频彩铃;
共享模块,用于若检测到与所述目标用户的同类用户数量达到预设人数阈值,则将所述目标视频彩铃进行共享,其中,所述同类用户为针对所述原始视频彩铃,与所述目标用户具有相同情绪标签的用户;
互动模块,用于在所述同类用户播放所述目标视频彩铃的情况下,提供组内聊天窗口,以供所述同类用户在所述目标视频彩铃播放的过程中通过所述组内聊天窗口进行互动。
8.一种视频数据处理设备,其特征在于,所述视频数据处理设备包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的视频数据处理程序,所述视频数据处理程序被所述处理器执行时实现如权利要求1-6中任一项所述的视频数据处理方法的步骤。
9.一种介质,所述介质为计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有视频数据处理程序,所述视频数据处理程序被处理器执行时实现如权利要求1-6中任一项所述的视频数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527553.9A CN114268693B (zh) | 2021-12-14 | 2021-12-14 | 视频数据处理方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527553.9A CN114268693B (zh) | 2021-12-14 | 2021-12-14 | 视频数据处理方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114268693A CN114268693A (zh) | 2022-04-01 |
CN114268693B true CN114268693B (zh) | 2023-12-08 |
Family
ID=80827056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111527553.9A Active CN114268693B (zh) | 2021-12-14 | 2021-12-14 | 视频数据处理方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114268693B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886950A (zh) * | 2017-12-06 | 2018-04-06 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于语音识别的儿童视频教学方法 |
CN108078573A (zh) * | 2015-08-07 | 2018-05-29 | 北京环度智慧智能技术研究所有限公司 | 一种基于生理反应信息与刺激信息的兴趣取向值测验方法 |
-
2021
- 2021-12-14 CN CN202111527553.9A patent/CN114268693B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108078573A (zh) * | 2015-08-07 | 2018-05-29 | 北京环度智慧智能技术研究所有限公司 | 一种基于生理反应信息与刺激信息的兴趣取向值测验方法 |
CN107886950A (zh) * | 2017-12-06 | 2018-04-06 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于语音识别的儿童视频教学方法 |
Non-Patent Citations (1)
Title |
---|
《基于瞳孔尺寸波动的用户基本满意度评价模型研究》;侯文君;高晓宇;李铁萌;《航天医学与医学工程》;20131015;第26卷(第5期);第1-2节 * |
Also Published As
Publication number | Publication date |
---|---|
CN114268693A (zh) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446876B (zh) | 手语信息处理方法、装置、电子设备和可读存储介质 | |
US9786326B2 (en) | Method and device of playing multimedia and medium | |
US20100086204A1 (en) | System and method for capturing an emotional characteristic of a user | |
CN107801096B (zh) | 视频播放的控制方法、装置、终端设备及存储介质 | |
EP2210214B1 (en) | Automatic identifying | |
EP2709357A1 (en) | Conference recording method and conference system | |
US10942563B2 (en) | Prediction of the attention of an audience during a presentation | |
KR102263154B1 (ko) | 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 | |
JP2013061906A (ja) | 顔分析装置、顔分析方法、及びプログラム | |
TW201528206A (zh) | 基於關聯性之視覺媒體項目修改技術 | |
WO2016136104A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210287011A1 (en) | Information interaction method and apparatus, electronic device, and storage medium | |
CN109286848B (zh) | 一种终端视频信息的交互方法、装置及存储介质 | |
CN111696538A (zh) | 语音处理方法、装置和介质 | |
CN112151041B (zh) | 基于录音机程序的录音方法、装置、设备及存储介质 | |
KR101838792B1 (ko) | 콘텐츠에 대한 사용자의 감정을 공유하는 방법 및 장치 | |
CN114268693B (zh) | 视频数据处理方法、装置、设备及介质 | |
CN113157174B (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
KR100827848B1 (ko) | 영상 통화 기록을 이용하여 디지털 데이터에 포함된 인물을인식하고 화면에 영상을 디스플레이하는 방법 및 시스템 | |
CN109165285A (zh) | 处理多媒体数据的方法、装置及存储介质 | |
CN109740557B (zh) | 对象检测方法及装置、电子设备和存储介质 | |
CN112446243A (zh) | 电子装置及基于情绪的内容推送方法 | |
JP5847646B2 (ja) | テレビ制御装置、テレビ制御方法及びテレビ制御プログラム | |
CN112565913B (zh) | 视频通话方法、装置和电子设备 | |
CN114302231A (zh) | 视频处理方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |