CN104837059B - 视频处理方法、装置和系统 - Google Patents
视频处理方法、装置和系统 Download PDFInfo
- Publication number
- CN104837059B CN104837059B CN201410151405.5A CN201410151405A CN104837059B CN 104837059 B CN104837059 B CN 104837059B CN 201410151405 A CN201410151405 A CN 201410151405A CN 104837059 B CN104837059 B CN 104837059B
- Authority
- CN
- China
- Prior art keywords
- video
- information
- play time
- expression
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种视频处理方法、装置和系统。其中,该视频处理方法包括:获取用户观看视频时的表情信息;记录表情信息对应的视频的播放时间点;通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点;以及显示视频的标识信息。通过本发明,解决了现有技术中标识视频的视频片段不准确的问题,进而达到了准确标识视频的视频片段的效果。
Description
技术领域
本发明涉及多媒体领域,具体而言,涉及一种视频处理方法、装置和系统。
背景技术
目前市场上很多在线视频产品提供“看点”功能,即通过标识视频的播放时间点的方式提前告知用户该视频的精彩片段在哪里,用户可以根据标识的时间点进行直接跳转或者浏览这些视频片段。
现有技术中,这些视频片段的看点是需要在线视频服务提供商预先人工设定的。通过人工设定来标识视频片段的方法有以下缺点:
(1)人工设定“看点”需要人工观看视频并标识“看点”,对于海量视频来说,需要昂贵的人力运营成本。
(2)由于每个人的经历、年龄、背景等各不相同,视频服务提供商的工作人员提供的看点很可能无法与海量用户真实的体验相契合,导致标识的视频看点不准确。
针对现有技术中标识视频片段不准确问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例的主要目的在于提供一种视频处理方法、装置和系统,以解决现有技术中标识视频片段不准确问题。
为了实现上述目的,根据本发明实施例的一个方面,提供了一种视频处理方法。根据本发明实施例的视频处理方法包括:获取用户观看视频时的表情信息;记录表情信息对应的视频的播放时间点;通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
为了实现上述目的,根据本发明实施例的另一方面,提供了一种视频处理装置。根据本发明实施例的视频处理装置包括:获取单元,用于获取用户观看视频时的表情信息;记录单元,用于记录表情信息对应的视频的播放时间点;上传单元,用于上传播放时间点,其中,通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点;接收单元,用于接收标识信息;以及显示单元,用于显示标识信息。
为了实现上述目的,根据本发明实施例的另一方面,还提供了一种视频处理装置。根据本发明实施例的视频处理装置包括:接收单元,用于接收播放时间点,其中,获取用户观看视频时的表情信息,并记录表情信息对应的视频的播放时间点;标识单元,用于通过记录的播放时间点对视频的播放时间点进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点;以及发送单元,用于发送标识信息。
为了实现上述目的,根据本发明实施例的另一方面,还提供了一种视频处理系统,该视频处理系统包括客户端和服务器,其中:客户端用于获取用户观看视频时的表情信息,记录表情信息对应的视频的播放时间点;服务器用于通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
在本发明实施例中,采用获取用户观看视频时的表情信息;记录表情信息对应的视频的播放时间点;通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点;以及显示视频的标识信息的方法,解决了现有技术中标识视频片段不准确的问题,进而达到了准确标识视频片段的效果。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明第一实施例的视频处理方法的流程图;
图2是根据本发明第二实施例的视频处理方法的流程图;
图3是根据本发明第一实施例的视频处理装置的示意图;
图4是根据本发明第二实施例的视频处理装置的示意图;以及
图5是根据本发明实施例的又一种视频处理装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
随着网络视频的越来越多,通过网络观看电视剧和电影等视频时,视频的时间轴上会标记有不同的播放时间点,每个播放时间点标识该视频的视频片段,但是,现有的标识技术都是经过视频服务提供商的人工设定,由于每个人的阅历和喜好不同,标识的视频片段可能与海量用户的真实感受不同,使得标识视频片段不准确,从而导致用户无法准确获取其期望观看的视频内容。
为了克服上述问题,本发明实施例提供了一种视频处理方法。该视频处理方法可以在客户端进行,也可以在服务器进行。
图1是根据本发明第一实施例的视频处理方法的流程图。如图所示,该视频处理方法包括如下步骤:
步骤S102,获取用户观看视频时的表情信息。
用户观看视频时根据视频情节的不同会表现出不同的表情,获取用户观看视频时的表情信息可以每间隔一段时间获取一次用户的表情信息。
获取的表情信息为通过识别用户的面部图像得到的信息,能够体现用户观看视频时的表情。例如,在用户观看视频的过程中,采集到3张用户的面部图像,其中,第三张面部图像未识别出表情,则通过第一张和第二张面部图像能够获取到用户观看视频时的表情信息。由于识别出表情的面部图像能够体现用户观看视频时的表情,从而获取此时用户的表情信息能够体现视频的视频片段的内容,从而通过识别出的表情对视频片段进行标识。在本发明实施例中,在对视频进行标识时,标识的视频片段可以是精彩片段,也可以根据需要设定的其他类型的片段。
通过智能设备(比如,手机、个人电脑等)上的摄像头可以获取用户图像,进而通过用户图像获取到表情信息。在用户观看视频的过程中,智能设备的摄像头获取用户图像。在没有集成摄像头的智能设备上,也可以通过智能设备的外接摄像头获取用户图像,例如,数字视频变换盒(例如智能电视、小米盒子、乐视盒子等)。
步骤S104,记录表情信息对应的视频的播放时间点。
由于获取到的表情信息为通过面部图像识别出相应播放时间点的表情信息,记录的表情信息对应的播放时间点即为识别出的表情信息对应的播放时间点。在该实施例中,识别出表情信息的播放时间点对应视频的视频片段,因而,记录的播放时间点也对应视频的视频片段。
步骤S106,通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
记录的播放时间点能够确定视频的视频片段对应的时间点,通过记录的播放时间对视频进行标识,可以得到视频的标识信息,视频的标识信息能够标识视频的被标识的视频片段所在的位置,即,视频的被标识的视频片段对应的播放时间点。
在该实施例中,通过获取用户观看视频时的表情信息,并按照记录的表情信息对应的播放时间点对视频进行标识,可以在视频上标识出用户的表情信息对应的播放时间点,而用户的表情信息对应了视频的被标识视频片段,或者称为视频看点,则标识的播放时间点能够反应视频的被标识视频片段情况,从而达到了准确标识视频片段的效果。
进一步地,在得到视频的标识信息之后,可以显示视频的标识信息。视频的标识信息用于标识视频的被标识视频片段对应的播放时间点,因此,显示视频的标识信息能够提示用户视频的被标识视频片段的位置。显示视频的标识信息可以有多种形式,在下述实施例中将进行详细说明。
例如,用户在观看视频的过程中,在观看到视频的0:30:00和0:40:00获取到用户的表情信息,记录此时表情信息对应的播放时间点为0:30:00和0:40:00,通过记录的播放时间点对视频进行标识,得到视频的标识信息,在视频的时间轴上显示0:30:00和0:40:00,以提示用户这两个时间点对应了该视频的被标识视频片段。
在该用户再次观看该视频或者在其他用户观看该视频时,可以在视频开始播放之前就知道该视频的被标识视频片段的位置。
进一步地,为了提高标识视频片段的准确度,该视频处理方法中通过记录的播放时间点对视频进行标识包括:
判断表情信息是否满足预设条件,其中,预设条件用于判断表情信息是否是需要对视频进行标识的表情信息,在表情信息满足预设条件时,则确定需要对视频进行标识,在表情信息不满足预设条件时,则确定不需要对所述视频进行标识。
如果判断出表情信息满足预设条件,通过记录的与表情信息对应的播放时间点对视频进行标识。
如果判断出表情信息不满足预设条件,则不对视频进行标识。
用户在观看视频的过程中会根据视频内容的变化而产生不同的表情,而这些表情携带有不同的表情信息,为了标识视频的视频片段,在用户的所有表情信息中确定满足条件的表情信息,以标识满足预设条件的表情信息对应的视频的播放时间点。
为了更加准确的标识视频的视频片段,在表情信息满足预设条件时,确定表情信息对应视频的视频片段,在表情信息不满足预设条件时,确定表情信息不对应视频的视频片段。那么,在表情信息满足条件时,通过记录的与满足条件的表情信息对应的播放时间点对视频进行标识,否则,不对视频标识。
优选地,为了减轻服务器的运行压力,判断表情信息是否满足预设条件的过程可以在客户端进行。
一个视频可以有多个被标识的视频片段,可以将获取到的多个表情信息对应的播放时间点保存在播放时间点的列表中,在通过记录的播放时间点对视频进行标识时,可以通过列表中记录的多个播放时间点对视频进行标识,在视频的时间轴上可以显示记录的播放时间点对应的标识信息。
在列表中可以只保存满足预设条件的表情信息对应的多个播放时间点,以下表1为播放时间点的列表:
表1
播放时间点 |
时间点1 |
时间点2 |
时间点3 |
在视频的时间轴上会标识时间点1、时间点2和时间点3作为被标识的视频片段。
在播放时间点的列表中不仅可以保存如表1所示的播放时间点,还可以保存如表2所示的表情信息和播放时间点列表。
表2
表情信息 | 播放时间点 |
表情信息1 | 时间点1 |
表情信息2 | 时间点2 |
表情信息3 | 时间点3 |
根据表2中的表情信息和对应的播放时间点可以在视频的时间轴上显示播放时间点对应的表情信息,不同的表情信息可以对应不同的显示方案,具体方案如下述实施例。
图2是根据本发明第二实施例的视频处理方法的流程图。在该视频处理方法中,视频的标识信息包括对应于不同表情信息的标识信息,如图所示,该视频处理方法包括:
步骤S202,识别表情信息对应的视频看点类别。
对表情信息进行识别,能够识别出用户的表情信息对应的视频看点类别。在观看视频过程中用户的表情信息包括笑、哭等。相应地,表情信息对应的视频看点类别为高兴、悲伤,用户在观看视频时表现出的笑、哭等表情都能反映用户在观看视频时的真实表情反应,从而通过用户的真实表情反应视频的被标识视频片段,对获取到的表情信息进行识别从而得到每个表情信息对应的视频看点类别。
从技术角度出发,可以利用现有技术进行表情识别,以确定用户的表情信息。常见的表情信息包括:愤怒、高兴、悲伤、惊讶、厌恶和恐惧。从工程实践上,可以利用例如开源图像处理工程openCV等完成表情的识别。
如果相邻两次获取的表情信息对应相同的表情类型,即可将一个时间区域内的表情信息标记为一个表情信息。这里需要强调的是,对获取到的表情信息进行识别时,由于识别出的种类无需过多,可以不必十分“精确”地判断两张图像是否包含类似的纹理内容。
步骤S204,获取视频看点类别对应的标记信息。
视频看点类别对应的标记信息可以是视频看点类别对应的表情符号、表情图标或者颜色等。
例如,在识别出视频看点类别为开心时,标记信息可以为“笑脸”的图标或者红色的标记,在识别出视频看点类别为悲伤时,标记信息可以为“哭脸”的图标或者蓝色标记。能够识别出的看点类别的标记信息都可以用于本发明实施例的方案中,并不限于上述几种方式。
步骤S206,通过获取到的与视频看点类别对应的标记信息对视频进行标识。
在获取到视频看点类别对应的标记信息之后,可以用颜色标记视频看点类别,例如红色标记视频看点类别为“开心”、蓝色标记视频看点类别为“忧伤”、黑色标记视频看点类别为“恐惧”,还可以用表情图标“笑脸”、“哭脸”和“惊恐”分别表示“开心”、“忧伤”和“恐惧”。那么,显示的标识信息为红色、蓝色和黑色,或者,显示的标识信息为“笑脸”、“哭脸”和“惊恐”,每个标记信息都显示在对应的视频播放时间点上。
通过上述实施例,可以在识别出视频看点类别之后,确定与视频看点类别对应的标记信息,并按照标记信息对视频进行标识,以方便用户根据标记信息选择自己感兴趣的内容进行观看。
进一步地,通过记录的播放时间点对视频进行标识包括:
提取表情信息的表情特征,其中,表情特征为用于表征表情信息类型的特征。
获取表情特征与视频看点类别的对应关系。
根据对应关系确定与表情信息对应的视频看点类别。
为了方便用户及时找到视频看点类别,在获取用户观看视频时的表情信息之后,根据表情信息提取到能够表征该表型信息类型的特征,并根据该表情特征与视频看点类别的对应关系,确定该表情信息对应的视频看点类别。
例如:获取到的表情信息分别为“笑不露齿”和“张嘴大笑”,虽然“笑不露齿”和“张嘴大笑”两张图片的纹理数据会相差较大,但是在这两个表情信息中都能提取到“笑”的纹理作为表情特征,又因为表情特征与视频看点类别具有对应关系,则确定这两个表情信息对应的视频看点类别为“开心”这一类,从而在提取到表情信息中“笑”的纹理之后,确定该表情信息对应的视频看点类别为“开心”。
进一步地,为了更加准确的标识视频片段,可以通过多个用户观看同一个视频时的表情信息确定视频的视频片段。具体的,获取用户观看视频时的表情信息包括:获取多个用户观看视频时的表情信息,其中,多个用户中不同的用户对应于不同的用户标识信息。
通过记录的播放时间点对视频进行标识包括:判断在同一播放时间点多个用户观看视频时的表情信息是否相同。如果判断出在同一播放时间点多个用户观看视频时的表情信息相同,则对同一播放时间点对应的视频进行标识。如果判断出在同一播放时间点多个用户观看视频时的表情信息不相同,则不对同一播放时间点对应的视频进行标识。在本发明实施例中,当判断在同一播放时间点多个用户观看视频时的表情信息是否相同时,可以通过对多个表情信息对应的面部图像的相似度进行判断,如果多个表情信息对应的面部图像的相似度满足预设条件,则确定多个用户观看视频时的表情信息相同,如果多个表情信息对应的面部图像的相似度不满足预设条件,则确定多个用户观看视频时的表情信息不相同。
获取多个用户观看视频时的表情,由于不同的用户对应不同的用户标识信息,则多个用户可以通过用户标识信息进行区分。判断在同一个播放时间点,多个用户观看视频时的表情信息是否相同,即是否多个用户在观看同一个视频的该时间点时表现出相同的表情信息,如果判断出多个用户在同一个播放时间点观看视频的表情信息相同,则确定获取的表情信息能够准确反映多个用户在观看视频时的表情,则对该播放时间点对应的视频播放时间点进行标识能够准确反映视频的视频片段,如果判断出多个用户在同一个播放时间点观看视频的表情信息不同,则不对同一个播放时间点对应的视频播放时间点进行标识。
进一步地,为了更加准确的标识视频片段,还可以通过一个用户多次观看同一个视频时的表情信息确定视频的视频片段。具体的,获取用户观看视频时的表情信息包括:获取视频在多次播放时对应的表情信息。
通过记录的播放时间点对视频进行标识包括:判断在同一播放时间点视频在多次播放时对应的表情信息是否相同。如果判断出在同一播放时间点视频在多次播放时对应的表情信息相同,则对同一播放时间点对应的视频进行标识。如果判断出在同一播放时间点视频在多次播放时对应的表情信息不相同,则不对同一播放时间点对应的视频进行标识。
视频在多次播放时对应的表情信息可以是一个用户多次观看一个视频时对应的表情信息,还可以是多个用户观看一次视频或者观看多次视频时对应的表情信息。
如果同一个播放时间点在多次播放视频时对应的表情信息相同,则确定多次观看同一个播放时间点对应的视频内容时,用户的表情反应相同,可以对同一播放时间点对应的视频进行标识,如果同一个播放时间点在多次播放视频时对应的表情信息不同,则确定多次观看时同一个播放时间点对应的视频内容时,用户的表情反应不同,则不对同一个播放时间对应的视频进行标识。
以上视频处理方法的步骤可以由客户端来执行,也可以由服务器来执行。为了使得客户端和服务器运行资源可以合理利用,在进行视频处理时,可以各有侧重的选择运行上述方法的载体。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
本发明实施例还提供了一种视频处理装置。该视频处理装置位于客户端中。
本发明实施例的视频处理方法可以通过本发明实施例所提供的视频处理装置来执行,本发明实施例的视频处理装置也可以用于执行本发明实施例所提供的视频处理方法。
图3是根据本发明第一实施例的视频处理装置的示意图。如图所示,该视频处理装置包括获取单元10、记录单元20、上传单元30、接收单元40和显示单元50。
获取单元10用于获取用户观看视频时的表情信息。
客户端获取用户观看视频时的表情信息,获取用户的表情信息可以通过客户端的面部图像采集装置获取。客户端的面部图像采集装置可以每间隔一段时间获取一次用户的表情信息。
通过智能设备(比如,手机、个人电脑等)上的摄像头可以获取用户图像,进而通过用户图像识别表情信息。在本发明实施例中,在用户观看视频的过程中,智能设备的摄像头获取用户图像,然后通过用户图像识别表情信息。在没有集成摄像头的智能设备上,也可以通过智能设备的外接摄像头获取用户图像,例如,数字视频变换盒(例如智能电视、小米盒子、乐视盒子等)。
在客户端的面部图像采集装置采集到用户观看视频时的面部图像时,对面部图像进行识别,从而得到能够体现用户观看视频时表情的表情信息。
例如,在用户观看视频的过程中,采集到3张用户的面部图像,其中,第三张面部图像未识别出表情,则通过第一张和第二张面部图像能够获取到用户观看视频时的表情信息。由于识别出表情的面部图像能够体现用户观看视频时的表情,从而获取此时用户的表情信息能够体现视频的被标识的视频片段情况。
记录单元20用于记录表情信息对应的视频的播放时间点。
获取到的表情信息为通过面部图像识别出的表情信息,那么,记录的表情信息对应的播放时间点也是识别出的表情信息对应的播放时间点,即,记录的播放时间点能够对应表情信息,从而对应视频的视频片段。
上传单元30用于上传播放时间点。上传单元30可以将播放时间点上传至服务器,其中,服务器通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
在记录表情信息对应的视频的播放时间点之后,将记录的播放时间点上传至服务器,服务器通过记录的播放时间点对视频的播放时间进行标识,得到视频的标识信息。视频的标识信息能够标识视频的视频片段对应的播放时间点,即,通过记录的播放时间点对视频的播放时间点进行标识。
接收单元40用于接收标识信息。接收单元40可以接收来自服务器的标识信息。
服务器通过记录的播放时间点对视频进行标识,得到视频的标识信息,服务器将视频的标识信息发送至客户端,客户端接收来自服务器的标识信息。
显示单元50用于显示标识信息。
在客户端的视频上显示标识信息,例如,在视频的时间轴上显示标识信息,用来标识表情信息对应的播放时间点,以提示用户该标识的播放时间点对应有被标识的视频片段。视频的标识信息用于标识视频的视频片段对应的播放时间点,因此,显示视频的标识信息能够提示用户视频的视频片段的位置。显示视频的标识信息可以有多种形式,在下述实施例中有详细说明,在此不做赘述。
例如,用户在观看视频的过程中,在观看到视频的0:30:00和0:40:00获取到用户的表情信息,记录此时表情信息对应的播放时间点为0:30:00和0:40:00,通过记录的播放时间点对视频进行标识,得到视频的标识信息,在视频的时间轴上显示0:30:00和0:40:00,以提示用户这两个时间点对应了该视频的视频片段。
上述实施例,通过获取用户观看视频时的表情信息,并按照记录的表情信息对应的播放时间点对视频进行标识,最终显示视频的标识信息,可以在视频上显示用户的表情信息对应的播放时间点,而用户的表情信息对应了视频的被标识视频片段,或者称为视频看点,则标识的播放时间点能够反应视频的被标识视频片段。由于是通过用户真实的表情反应确定视频的播放时间点,并根据播放时间点显示视频的标识信息,从而解决了现有技术中标识视频的视频片段不准确的问题,进而达到了准确标识的视频片段的效果。
进一步地,为了提高标识视频片段的准确度,该视频处理装置的记录单元20还包括判断模块和记录模块。
判断模块,用于判断表情信息是否满足预设条件,其中,预设条件用于判断表情信息是否是需要视频进行标识的表情信息,在表情信息满足预设条件时,则确定需要对视频进行标识,在表情信息不满足预设条件时,则确定不需要对视频进行标识。
记录模块,用于在判断出表情信息满足预设条件时,记录表情信息对应的视频的播放时间点,并在判断出表情信息不满足预设条件,则不记录表情信息对应的视频的播放时间点。
用户在观看视频的过程中会根据视频内容的变化而产生不同的表情,而这些表情携带有不同的表情信息,为了标识视频的视频片段,在用户的所有表情信息中确定满足条件的表情信息,以标识满足预设条件的表情信息对应的视频的播放时间点。
为了更加准确的标识视频的视频片段,在表情信息满足预设条件时,确定需要对视频进行标识,在表情信息不满足预设条件时,确定不需要对视频进行标识。那么,在表情信息满足条件时,通过记录的与满足条件的表情信息对应的播放时间点对视频进行标识,否则,不对视频标识。
在客户端判断表情信息是否满足预设条件,既充分的利用了客户端的资源,又可以减轻服务器的运行压力。
图4是根据本发明第二实施例的视频处理装置的示意图。如图所示,该获取单元10、记录单元20、上传单元30、接收单元40和显示单元50,其中,记录单元20还包括识别模块201、获取模块202和记录模块203。
识别模块201用于识别表情信息对应的视频看点类别。
视频的标识信息包括对应于不同表情信息的标识信息。客户端对表情信息进行识别,能够识别出用户的表情信息对应的视频看点类别。在观看视频过程中用户的表情信息包括笑、哭等。相应地,表情信息对应的视频看点类别为高兴、悲伤,用户在观看视频时表现出的笑、哭等表情都能反映用户在观看视频时的真实表情反应,从而通过用户的真实表情反应视频的被标识视频片段,对获取到的表情信息进行识别从而得到每个表情信息对应的视频看点类别。
获取模块202用于获取视频看点类别对应的记录信息。
客户端在识别出视频看点类别时,对每个视频看点类别进行记录,得到视频看点类别对应的记录信息。
记录模块203用于通过获取到的与视频看点类别对应的记录信息对视频的播放时间点进行记录。
用户的表情信息对应视频看点类别,还对应视频的播放时间点,通过表情信息可以将视频看点类别和视频的播放时间点对应,由于视频看点类别还对应记录信息,因此,通过视频看点类别对应的记录信息可以对视频的播放时间点进行记录,即,每个播放时间点对应的视频看点类别。
在客户端确定每个播放时间点对应的视频看点类别之后,可以将通过记录信息对视频的播放时间点进行记录的结果发送给服务器,服务器直接根据视频看点类别和视频的播放时间点的对应关系确定视频看点类别对应标记信息。
视频看点类别对应的标记信息可以是视频看点类别对应的表情符号、表情图标或者颜色等。
例如,在识别出视频看点类别为开心时,标记信息可以为“笑脸”的图标或者红色的标记,在识别出视频看点类别为悲伤时,标记信息可以为“哭脸”的图标或者蓝色标记。能够识别出的看点类别的标记信息都可以用于本发明实施例的方案中,并不限于上述几种方式。
在获取到视频看点类别对应的标记信息之后,可以用颜色标记视频看点类别,例如红色标记视频看点类别为“开心”、蓝色标记视频看点类别为“忧伤”、黑色标记视频看点类别为“恐惧”,还可以用表情图标“笑脸”、“哭脸”和“惊恐”分别表示“开心”、“忧伤”和“恐惧”。那么,显示的标识信息为红色、蓝色和黑色,或者,显示的标识信息为“笑脸”、“哭脸”和“惊恐”,每个标记信息都显示在对应的视频播放时间点上。
通过上述实施例,在客户端可以直接确定视频看点类别与播放时间点的对应关系,服务器可以直接根据客户端发送的对应关系确定与视频看点类别对应的标记信息,并按照标记信息对视频进行标识,这样,不仅方便用户根据标记信息选择自己感兴趣的内容进行观看,还能够节约服务器的运行资源。
本发明实施例还提供了一种视频处理装置。该视频处理装置位于服务器中。
图5是根据本发明实施例的又一种视频处理装置的示意图。如图所示,该视频处理装置包括接收单元100、标识单元200和发送单元300。
接收单元100用于接收播放时间点。该播放时间点可以是来自客户端的播放时间点,其中,客户端用于获取到用户观看视频时的表情信息,并记录表情信息对应的视频的播放时间点。
服务器接收来自客户端的播放时间点,其中,客户端获取用户观看视频时的表情信息,并记录表情信息对应的视频的播放时间点。
客户端获取用户观看视频时的表情信息,获取用户的表情信息可以通过客户端的面部图像采集装置获取。客户端的面部图像采集装置可以每间隔一段时间获取一次用户的表情信息。
在客户端的面部图像采集装置采集到用户观看视频时的面部图像时,对面部图像进行识别,从而得到能够体现用户观看视频时的表情的表情信息。
客户端获取到的表情信息为通过面部图像识别出的表情信息,那么,记录的表情信息对应的播放时间点也是识别出的表情信息对应的播放时间点,即,记录的播放时间点能够对应表情信息,从而对应视频的被标识视频片段。
标识单元200用于通过记录的播放时间点对视频的播放时间点进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
服务器通过记录的播放时间点对视频的播放时间进行标识,得到视频的标识信息。视频的标识信息能够标识视频的被标识视频片段对应的播放时间点,即,通过记录的播放时间点对视频的播放时间点进行标识。
发送单元300用于发送标识信息。发送单元300可以将标识信息发送至客户端,其中,客户端用于显示标识信息。
在服务器得到视频的标识信息之后,将标识信息发送至客户端,客户端可以显示来自服务器的标识信息
在客户端的视频上显示标识信息,例如,在视频的时间轴上显示标识信息,用来标识表情信息对应的播放时间点,以提示用户该标识的播放时间点对应有被标识的视频片段。视频的标识信息用于标识视频的视频片段对应的播放时间点,因此,显示视频的标识信息能够提示用户视频的被标识的视频片段的位置。
例如,用户在观看视频的过程中,在观看到视频的0:30:00和0:40:00获取到用户的表情信息,记录此时表情信息对应的播放时间点为0:30:00和0:40:00,通过记录的播放时间点对视频进行标识,得到视频的标识信息,在视频的时间轴上显示0:30:00和0:40:00,以提示用户这两个时间点对应了该视频的被标识的视频片段。
上述实施例,通过获取用户观看视频时的表情信息,并按照记录的表情信息对应的播放时间点对视频进行标识,最终显示视频的标识信息,可以在视频上显示用户的表情信息对应的播放时间点,而用户的表情信息对应了视频的被标识的视频片段,或者称为视频看点,则标识的播放时间点能够反应视频的被标识情况。由于是通过用户真实的表情反应确定视频的播放时间点,并根据播放时间点显示视频的标识信息,从而解决了现有技术中标识视频的视频片段不准确的问题,进而达到了准确标识的视频的视频片段的效果。
本发明实施例还提供了一种视频处理系统,该视频处理系统包括客户端和服务器,该视频处理系统中的客户端可以是前述实施例中的客户端,相应地,该视频处理系统中的服务器可以是前述实施例中的服务器。客户端用于获取用户观看视频时的表情信息,记录表情信息对应的视频的播放时间点,服务器用于通过记录的播放时间点对视频进行标识,得到视频的标识信息,其中,标识信息用于标识视频的视频片段对应的播放时间点。
从以上的描述中,可以看出,本发明实施例实现了如下技术效果:
1、获取用户观看视频时的表情信息,并记录表情信息对应的播放时间点,得到相应的标识信息,由于表情信息与视频的被标识的视频片段相对应,则记录的播放时间点与视频的被标识视频片段相对应,所以,根据表情信息对应的播放时间对视频进行标识能够提高标识视频的视频片段的准确度。
2、本发明实施例可以通过多种方式对记录的播放时间点进行标记,显示不同的视频看点类别,以方便用户观看感兴趣的视频片段。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种视频处理方法,其特征在于,包括:
获取用户观看视频时的表情信息;
记录所述表情信息对应的所述视频的播放时间点;
通过记录的播放时间点对所述视频进行标识,得到所述视频的标识信息,其中,所述标识信息用于标识所述视频的视频片段对应的播放时间点;
其中,所述视频的标识信息包括对应于不同表情信息的标识信息,其中,通过记录的播放时间点对所述视频进行标识包括:
识别所述表情信息对应的视频看点类别;
获取所述视频看点类别对应的标记信息,其中,视频看点类别对应的标记信息包括:视频看点类别对应的表情符号、表情图标或者颜色;以及
通过获取到的与所述视频看点类别对应的标记信息对所述视频进行标识;
其中,在得到所述视频的所述标识信息之后,在所述视频的时间轴上显示所述标识信息。
2.根据权利要求1所述的视频处理方法,其特征在于,通过记录的播放时间点对所述视频进行标识包括:
判断所述表情信息是否满足预设条件,其中,所述预设条件用于判断所述表情信息是否是需要对所述视频进行标识的表情信息,在所述表情信息满足所述预设条件时,则确定需要对所述视频进行标识,在所述表情信息不满足所述预设条件时,则确定不需要对所述视频进行标识;
如果判断出所述表情信息满足所述预设条件,通过记录的与所述表情信息对应的播放时间点对所述视频进行标识;以及
如果判断出所述表情信息不满足所述预设条件,则不对所述视频进行标识。
3.根据权利要求1所述的视频处理方法,其特征在于,通过记录的播放时间点对所述视频进行标识包括:
提取所述表情信息的表情特征,其中,所述表情特征为用于表征所述表情信息类型的特征;
获取所述表情特征与所述视频看点类别的对应关系;以及
根据所述对应关系确定与所述表情信息对应的视频看点类别。
4.根据权利要求1所述的视频处理方法,其特征在于,
获取用户观看视频时的表情信息包括:获取多个用户观看视频时的表情信息,其中,所述多个用户中不同的用户对应于不同的用户标识信息;
通过记录的播放时间点对所述视频进行标识包括:判断在同一播放时间点所述多个用户观看视频时的表情信息是否相同;如果判断出在所述同一播放时间点所述多个用户观看视频时的表情信息相同,则对所述同一播放时间点对应的所述视频的播放时间点进行标识;如果判断出在所述同一播放时间点所述多个用户观看视频时的表情信息不相同,则不对所述同一播放时间点对应的所述视频的播放时间点进行标识,
或,
获取用户观看视频时的表情信息包括:获取所述视频在多次播放时对应的表情信息;
通过记录的播放时间点对所述视频进行标识包括:判断在同一播放时间点所述视频在多次播放时对应的表情信息是否相同;如果判断出在所述同一播放时间点所述视频在多次播放时对应的表情信息相同,则对所述同一播放时间点对应的所述视频的播放时间点进行标识;如果判断出在所述同一播放时间点所述视频在多次播放时对应的表情信息不相同,则不对所述同一播放时间点对应的所述视频的播放时间点进行标识。
5.一种视频处理装置,其特征在于,包括:
获取单元,用于获取用户观看视频时的表情信息;
记录单元,用于记录所述表情信息对应的所述视频的播放时间点;
上传单元,用于上传所述播放时间点,其中,通过所述播放时间点对所述视频进行标识,得到所述视频的标识信息,其中,所述标识信息用于标识所述视频的视频片段对应的播放时间点,其中,所述视频的标识信息包括对应于不同表情信息的标识信息,其中,通过记录的播放时间点对所述视频进行标识包括:识别所述表情信息对应的视频看点类别,获取所述视频看点类别对应的标记信息,其中,视频看点类别对应的标记信息包括:视频看点类别对应的表情符号、表情图标或者颜色,以及,通过获取到的与所述视频看点类别对应的标记信息对所述视频进行标识;
接收单元,用于接收所述标识信息;以及
显示单元,用于显示所述标识信息;
其中,所述显示单元,还用于在所述视频的时间轴上显示所述标识信息。
6.根据权利要求5所述的视频处理装置,其特征在于,所述记录单元包括:
判断模块,用于判断所述表情信息是否满足预设条件,其中,所述预设条件用于判断所述表情信息是否是需要对所述视频进行标识的表情信息,在所述表情信息满足所述预设条件时,则确定需要对所述视频进行标识,在所述表情信息不满足所述预设条件时,则确定不需要对所述视频进行标识;以及
记录模块,用于在判断出所述表情信息满足所述预设条件时,记录所述表情信息对应的所述视频的播放时间点,并在判断出所述表情信息不满足所述预设条件,则不记录所述表情信息对应的所述视频的播放时间点。
7.根据权利要求5所述的视频处理装置,其特征在于,所述视频的标识信息包括对应于不同表情信息的标识信息,其中,所述记录单元包括:
识别模块,用于识别所述表情信息对应的视频看点类别;
获取模块,用于获取所述视频看点类别对应的记录信息;以及记录模块,用于通过获取到的与所述视频看点类别对应的记录信息对所述视频的播放时间点进行记录。
8.一种视频处理装置,其特征在于,包括:
接收单元,用于接收播放时间点,其中,获取用户观看视频时的表情信息,并记录所述表情信息对应的所述视频的播放时间点;
标识单元,用于通过记录的播放时间点对所述视频的播放时间点进行标识,得到所述视频的标识信息,其中,所述标识信息用于标识所述视频的视频片段对应的播放时间点,其中,所述视频的标识信息包括对应于不同表情信息的标识信息,其中,通过记录的播放时间点对所述视频进行标识包括:识别所述表情信息对应的视频看点类别,获取所述视频看点类别对应的标记信息,其中,视频看点类别对应的标记信息包括:视频看点类别对应的表情符号、表情图标或者颜色,以及,通过获取到的与所述视频看点类别对应的标记信息对所述视频进行标识;以及
发送单元,用于发送所述标识信息;
其中,所述发送单元,还用于将所述标识信息发送至客户端,其中,所述客户端用于在所述视频的时间轴上显示所述标识信息。
9.一种视频处理系统,其特征在于,包括客户端和服务器,其中:
所述客户端用于获取用户观看视频时的表情信息,记录所述表情信息对应的所述视频的播放时间点;
所述服务器用于通过记录的播放时间点对所述视频进行标识,得到所述视频的标识信息,其中,所述标识信息用于标识所述视频的视频片段对应的播放时间点,其中,所述视频的标识信息包括对应于不同表情信息的标识信息,其中,通过记录的播放时间点对所述视频进行标识包括:识别所述表情信息对应的视频看点类别,获取所述视频看点类别对应的标记信息,其中,视频看点类别对应的标记信息包括:视频看点类别对应的表情符号、表情图标或者颜色,以及,通过获取到的与所述视频看点类别对应的标记信息对所述视频进行标识;
其中,所述服务器还用于在得到所述视频的所述标识信息之后,将所述标识信息发送至所述客户端;所述客户端还用于在所述视频的时间轴上显示所述标识信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410151405.5A CN104837059B (zh) | 2014-04-15 | 2014-04-15 | 视频处理方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410151405.5A CN104837059B (zh) | 2014-04-15 | 2014-04-15 | 视频处理方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104837059A CN104837059A (zh) | 2015-08-12 |
CN104837059B true CN104837059B (zh) | 2019-01-08 |
Family
ID=53814653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410151405.5A Active CN104837059B (zh) | 2014-04-15 | 2014-04-15 | 视频处理方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104837059B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897304B (zh) * | 2015-12-18 | 2021-01-29 | 北京奇虎科技有限公司 | 一种多媒体数据的处理方法和装置 |
CN106682953B (zh) * | 2017-01-19 | 2020-08-28 | 上海灵信物联网技术有限公司 | 广告推送方法及推送装置 |
CN106878809B (zh) * | 2017-02-15 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 一种视频收藏方法、播放方法、装置、终端及系统 |
CN106803935A (zh) * | 2017-02-22 | 2017-06-06 | 深圳市海云天科技股份有限公司 | 一种标准化考场监控视频录像的标记方法及系统 |
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN107454359B (zh) * | 2017-07-28 | 2020-12-04 | 北京小米移动软件有限公司 | 播放视频的方法及装置 |
CN107786894B (zh) * | 2017-09-29 | 2021-03-02 | 维沃移动通信有限公司 | 一种用户反馈数据的识别方法、移动终端和存储介质 |
CN110267086B (zh) * | 2018-05-16 | 2022-02-25 | 腾讯数码(天津)有限公司 | 主播标签建立方法和装置、直播网络界面引擎接口和介质 |
CN109040776B (zh) * | 2018-07-27 | 2021-11-05 | 联达时代(南京)智能科技有限公司 | 用于播放内容的识别方法及装置 |
CN109275047B (zh) * | 2018-09-13 | 2021-06-29 | 周昕 | 视频信息处理方法及装置、电子设备、存储介质 |
CN109842805B (zh) * | 2019-01-04 | 2022-10-21 | 平安科技(深圳)有限公司 | 视频看点的生成方法、装置、计算机设备及存储介质 |
CN112235635B (zh) * | 2019-07-15 | 2023-03-21 | 腾讯科技(北京)有限公司 | 动画显示方法、装置、电子设备及存储介质 |
CN112492389B (zh) * | 2019-09-12 | 2022-07-19 | 上海哔哩哔哩科技有限公司 | 视频推送方法、视频播放方法、计算机设备和存储介质 |
CN112492397A (zh) * | 2019-09-12 | 2021-03-12 | 上海哔哩哔哩科技有限公司 | 视频处理方法、计算机设备和存储介质 |
CN112423077A (zh) * | 2020-10-15 | 2021-02-26 | 深圳Tcl新技术有限公司 | 视频播放方法、装置、设备和存储介质 |
CN113326235B (zh) * | 2021-06-30 | 2023-04-11 | 重庆五洲世纪文化传媒有限公司 | 一种亲子记录系统 |
CN113965804A (zh) * | 2021-09-28 | 2022-01-21 | 展讯半导体(南京)有限公司 | 视频处理方法及相关产品 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6585521B1 (en) * | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
US20120324491A1 (en) * | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
CN102802079B (zh) * | 2012-08-24 | 2016-08-17 | 广东欧珀移动通信有限公司 | 一种媒体播放器的视频预览片段生成方法 |
CN102842327A (zh) * | 2012-09-03 | 2012-12-26 | 深圳市迪威视讯股份有限公司 | 一种多媒体数据流的剪辑方法及系统 |
-
2014
- 2014-04-15 CN CN201410151405.5A patent/CN104837059B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104837059A (zh) | 2015-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104837059B (zh) | 视频处理方法、装置和系统 | |
US7953254B2 (en) | Method and apparatus for generating meta data of content | |
CN111050193B (zh) | 用户画像构建方法、装置、计算机设备和存储介质 | |
CN103890810B (zh) | 图像处理设备、方法 | |
CN108366278A (zh) | 一种视频播放中的用户交互实现方法及装置 | |
US20100158391A1 (en) | Identification and transfer of a media object segment from one communications network to another | |
CN109121007A (zh) | 基于多人脸识别的影视内容推荐方法、智能电视及系统 | |
US20170047096A1 (en) | Video generating system and method thereof | |
CN103826160A (zh) | 获取视频的信息的方法及设备及播放视频的方法及设备 | |
CN108271069A (zh) | 一种视频节目的片段过滤方法和装置 | |
CN112188307B (zh) | 视频资源的合成方法、装置、存储介质及电子装置 | |
CN104811742A (zh) | 一种视频数据的存储方法及装置 | |
US10911683B2 (en) | Display control device and display control method for image capture by changing image capture settings | |
CN108848416A (zh) | 音视频内容的评价方法和装置 | |
CN112601105B (zh) | 一种应用于直播评论的信息提取方法及装置 | |
CN107995482A (zh) | 视频文件的处理方法和装置 | |
CN113038185B (zh) | 弹幕处理方法及装置 | |
CN105005599A (zh) | 一种照片分享方法及移动终端 | |
CN105872786A (zh) | 一种在节目中通过弹幕投放广告的方法及装置 | |
CN107180055A (zh) | 业务对象的展示方法及装置 | |
CN111277898A (zh) | 一种内容推送方法及装置 | |
CN110415318B (zh) | 图像处理方法和装置 | |
CN110418148B (zh) | 视频生成方法、视频生成设备及可读存储介质 | |
CN111583348A (zh) | 图像数据编码方法及装置、显示方法及装置、电子设备 | |
CN107770603B (zh) | 视频图像处理方法、装置和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |