发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的视频推荐方法及装置。
根据本发明的一个方面,提供了一种视频推荐方法,包括:
获取用户的面部图像数据,检测面部图像数据中包含的面部关键点信息,根据面部关键点信息确定用户的情绪标签信息;
在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果,根据兴趣程度结果,得到用户的兴趣视频标签信息;
根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。
可选地,根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频具体包括:
按照预设的类型推荐策略,根据用户的情绪标签信息确定推荐类型信息;
根据用户的兴趣视频标签信息,确定用户的视频偏好信息;其中,视频偏好信息包含偏好视频类型信息和/或偏好视频内容信息;
根据推荐类型信息以及用户的视频偏好信息选取目标推荐视频,向用户推荐目标推荐视频。
可选地,根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频具体包括:
将用户的情绪标签信息以及用户的兴趣标签信息输入至预设的推荐模型中,得到目标推荐视频,向用户推荐目标推荐视频。
可选地,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果具体包括:
检测用户的左右眼视线方向是否一致,以及检测第一时刻和第二时刻用户的左眼视线方向是否一致,检测第一时刻和第二时刻用户的右眼视线方向是否一致;
若用户的左右眼视线方向一致,第一时刻和第二时刻用户的左眼视线方向一致,以及第一时刻和第二时刻用户的右眼视线方向一致,则得到用户对视频感兴趣的兴趣程度结果。
可选地,方法进一步包括:
根据面部图像数据,确定用户的年龄信息和性别信息;
则根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频进一步包括:
根据用户的年龄信息、性别信息、情绪标签信息以及兴趣视频标签信息,向用户推荐视频。
可选地,根据面部图像数据,确定用户的年龄信息和性别信息具体包括:
根据面部图像数据,提取年龄特征信息,将年龄特征信息输入至预设的年龄检测模型,得到用户的年龄信息;
根据面部图像数据,提取性别特征信息,将性别特征输入至预设的性别检测模型,得到用户的性别信息。
根据本发明的另一方面,提供了一种视频推荐装置,包括:
获取模块,适于获取用户的面部图像数据;
关键点检测模块,适于检测面部图像数据中包含的面部关键点信息;
情绪标签生成模块,适于根据面部关键点信息确定用户的情绪标签信息;
视线方向检测模块,适于在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果;
兴趣标签生成模块,适于根据兴趣程度结果,得到用户的兴趣视频标签信息;
视频推荐模块,适于根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。
可选地,视频推荐模块进一步适于:
按照预设的类型推荐策略,根据用户的情绪标签信息确定推荐类型信息;
根据用户的兴趣视频标签信息,确定用户的视频偏好信息;其中,视频偏好信息包含偏好视频类型信息和/或偏好视频内容信息;
根据推荐类型信息以及用户的视频偏好信息选取目标推荐视频,向用户推荐目标推荐视频。
可选地,视频推荐模块进一步适于:
将用户的情绪标签信息以及用户的兴趣标签信息输入至预设的推荐模型中,得到目标推荐视频,向用户推荐目标推荐视频。
可选地,视线方向检测模块进一步适于:检测用户的左右眼视线方向是否一致,以及检测第一时刻和第二时刻用户的左眼视线方向是否一致,检测第一时刻和第二时刻用户的右眼视线方向是否一致;
则兴趣标签生成模块进一步适于:若用户的左右眼视线方向一致,第一时刻和第二时刻用户的左眼视线方向一致,以及第一时刻和第二时刻用户的右眼视线方向一致,则得到用户对视频感兴趣的兴趣程度结果。
可选地,装置进一步包括:
性别检测模块,适于根据面部图像数据,确定用户的性别信息;
年龄检测模块,适于根据面部图像数据,确定用户的年龄信息;
则视频推荐模块进一步适于:根据用户的年龄信息、性别信息、情绪标签信息以及兴趣视频标签信息,向用户推荐视频。
可选地,年龄检测模块进一步适于:根据面部图像数据,提取年龄特征信息,将年龄特征信息输入至预设的年龄检测模型,得到用户的年龄信息;
性别检测模块进一步适于:根据面部图像数据,提取性别特征信息,将性别特征输入至预设的性别检测模型,得到用户的性别信息。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述视频推荐方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述视频推荐方法对应的操作。
根据本发明的视频推荐方法及装置,方法包括:获取用户的面部图像数据,检测面部图像数据中包含的面部关键点信息,根据面部关键点信息确定用户的情绪标签信息;在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果,根据兴趣程度结果,得到用户的兴趣视频标签信息;根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。该方式基于用户的面部表情生成用户的情绪标签,以及基于用户的视线方向生成用户的视频兴趣标签,在视频推荐中融入了用户的情绪信息和用户的视频兴趣信息,使得视频推荐结果更具多样性和更加个性化,有效地解决了冷启动问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的视频推荐方法的流程示意图,如图1所示,该方法包括:
步骤S101,获取用户的面部图像数据,检测面部图像数据中包含的面部关键点信息,根据面部关键点信息确定用户的情绪标签信息。
通过图像采集设备获取用户的面部图像数据,例如利用摄像头拍摄得到人脸图像数据。具体实施时,启动人脸检测进程,检测用户的面部图像数据中各个面部关键点在坐标系中的位置信息,根据关键点的位置信息确定用户的情绪是中性的、高兴的或者不高兴的,从而得到用户的情绪标签信息。
步骤S102,在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果,根据兴趣程度结果,得到用户的兴趣视频标签信息。
该步骤主要是检测用户是否认真观看正在播放的视频,用户认真观看就表明用户对播放的视频是感兴趣的,反之则不感兴趣,而通过检测用户的视线,能够确定用户是否认真观看视频。
本实施例中,通过检测用户的视线方向,确定用户对正在播放的视频是否感兴趣,若用户对该视频感兴趣,则根据该视频确定用户的兴趣视频标签信息。例如,将根据用户感兴趣的视频的内容信息和/或类型信息作为用户的兴趣视频标签信息。
步骤S103,根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。
结合用户的情绪以及用户的视频兴趣信息,选取目标推荐视频,向用户推荐目标推荐视频。
根据本实施例所提供的视频推荐方法,该方式基于用户的面部表情生成用户的情绪标签,以及基于用户的视线方向生成用户的视频兴趣标签,在视频推荐中融入了用户的情绪信息和用户的视频兴趣信息,使得视频推荐结果更具多样性和更加个性化,有效地解决了冷启动问题。
图2示出了根据本发明另一个实施例的视频推荐方法的流程示意图,如图2所示,本实施例的方法应用于提供视频服务的系统中,例如,视频网站系统或者视频应用系统,并且本申请各个步骤的执行时机为用户使用视频服务系统期间。该方法包括:
步骤S201,获取用户的面部图像数据,检测面部图像数据中包含的面部关键点信息,根据面部关键点信息确定用户的情绪标签信息。
以视频服务系统为客户端-服务器的架构为例,本步骤可以在客户端侧执行,也可以在服务器侧执行,或者步骤S201-步骤S203在客户端侧执行,步骤S204-步骤S206在服务器侧执行,本发明对此不做限定。
通过图像采集设备获取到用户的面部图像数据,例如利用摄像头拍摄得到人脸图像数据。具体实施时,启动人脸检测进程,检测用户的面部图像数据中各个面部关键点在坐标系中的位置信息,确定用户的情绪是中性的、高兴的或者不高兴的,得到用户的情绪标签信息。可选地,按照预设定时时间启动人脸检测进程,对检测时刻的图像帧提取面部关键点,本发明对此不做限定。
本步骤的一种具体实施方式如下:
通过计算机视觉库Dlib检测到面部的68个关键点,图3示出了本申请一个实施方式中的面部关键点的示意图。情绪标签分为三大类:中性、高兴、不高兴三大类,其中高兴包含激动、兴奋、开心等正面情绪,不高兴包含沮丧、皱眉等负面情绪。本实施例中,根据图像坐标系中面部关键点的位置信息,同时结合面部器官的外接矩形的长宽比,确定用户的情绪标签。
图像坐标系中,两点之间的欧式距离计算为:
其中,P1、P2分别为面部关键点的坐标值。
面部器官的外接矩形长宽比计算公式为:Scale=long/wide,其中,long为外接矩形的长,wide为外接矩形的宽。
本实施例的判定用户情绪标签的具体方法如下:
其中,ConditionM=1代表高兴,ConditionM=0代表中性,ConditionM=-1代表不高兴。thresholdDisM代表上下唇关键点的距离阈值,该阈值为经验值,
Dis(P22,P23)<thresholdScaleE代表双眉关键点的距离阈值,该阈值也为经验值,thresholdScaleM代表嘴巴外接矩形的长宽比系数阈值,该系数阈值也为经验值,例如1.8。由此可见,本实施的方式是通过上下唇关键点之间的距离,或者嘴巴外接矩形的长宽比来判定用户的情绪是否为高兴,根据双眉关键点之间的距离来判定用户的情绪是否为不高兴。当然这仅仅是本发明的一个具体实施方式,本发明对此不做限定,总之,凡是能够用于根据人脸图像确定用户情绪的方式都应当包含在本发明的保护范围内。
通过上述步骤,可以得到ConditionM的值,进一步根据ConditionM的值确定用户的情绪标签信息。
步骤S202,在播放视频的过程中,检测用户的左右眼视线方向是否一致,以及检测第一时刻和第二时刻用户的左眼视线方向是否一致,检测第一时刻和第二时刻用户的右眼视线方向是否一致。
步骤S203,若用户的左右眼视线方向一致,第一时刻和第二时刻用户的左眼视线方向一致,以及第一时刻和第二时刻用户的右眼视线方向一致,则得到用户对视频感兴趣的兴趣程度结果,根据兴趣程度结果,得到用户的兴趣视频标签信息。
步骤S202-步骤S203是检测用户是否认真观看正在播放的视频,用户认真观看就表明用户对播放的视频是感兴趣的,反之就是不感兴趣的,通过检测用户的视线,能够确定是否认真观看视频。
具体地,在播放视频的过程中,检测用户的左右眼视线方向是否一致,这里可以是持续检测或者定时检测,本发明对此不做限定;检测第一时刻用户的左眼视线方向和第二时刻用户的左眼视线方向是否一致,以及检测第一时刻用户的右眼视线方向和第二时刻用户的右眼视线方向是否一致。需要说明的是,本实施例中的视线方向一致并不是指完全重合或者完全平行,只要视线方向之间的差别在规定的误差范围内,都认为是一致的。
在一种具体实施方式中,通过计算机视觉库OpenFace实现眼睛视线的检测和跟踪,根据视线方向的一致性和停留间隔时长后视线方向的一致性判定用户对当前视频的感兴趣程度。视线方向的一致性通过视线方向向量的余弦相似度得到,计算公式如下:
本实施例中判定用户对于视频的兴趣程度结果的具体方式如下:
其中,POI=1,代表感兴趣;POI=0,代表不感兴趣。a,b分别为左右眼睛的视线方向向量,
和
分别代表f
1时刻的图像帧中左右眼睛的视线方向向量,
和
分别代表f
t+1时刻的图像帧中左右眼睛的视线方向向量。
由此可见,在播放视频的过程中,若检测到用户的左右眼视线方向一致,并且第一时刻和第二时刻用户的右眼视线方向一致,第一时刻和第二时刻用户的左眼方向也一致,则判定用户对该视频的是感兴趣的。根据用户感兴趣的视频的类型和/或内容确定用户的兴趣视频标签信息,可选的,将用户感兴趣的视频的类型信息和/或内容信息作为用户的兴趣视频标签信息,举例来说,当前正在播放的视频为历史纪录片,则确定用户的兴趣标签信息为:纪录片类型标签以及历史内容标签。或者也可以对用户感兴趣的视频的类型信息和/或内容信息进行同类扩展,根据扩展得到的视频类型信息和/或内容信息确定用户的兴趣视频标签。
步骤S204,按照预设的类型推荐策略,根据用户的情绪标签信息确定推荐类型信息。
根据预先设置的类型推荐策略确定目标推荐视频的类型,类型推荐策略跟用户的情绪标签相关,如针对于情绪标签信息为不高兴标签的用户,推荐喜剧类型、动作类型、和/或励志类型的视频;针对于情绪标签信息为中性标签的用户,推荐纪录片类型、现实主义题材类型和/或新闻纪要类型的视频;针对于情绪标签为高兴标签的用户,推荐热点类型和/或娱乐搞笑类型的视频。上述举例仅仅起示例作用,本发明的方案不以此为限。总之,在视频推荐模型中融入用户情绪维度的信息,从而顺应用户情绪去推荐视频,能够提升用户体验,保证推荐结果的多样性。
步骤S205,根据用户的兴趣视频标签信息,确定用户的视频偏好信息,视频偏好信息包含偏好视频类型信息和/或偏好视频内容信息。
根据用户的兴趣视频标签信息,确定用户的视频偏好信息。也即,根据用户的兴趣视频标签信息,预测用户具体对哪种类型的视频比较感兴趣。例如,根据用户视频标签信息中包含的视频类型信息和/或视频内容信息进行同类扩展,确定用户的偏好视频类型信息和/或偏好视频内容信息,具体地,确定用户视频标签信息中包含的视频类型信息所属的类型分类,将该类型分类中包含的各个视频类型信息作为用户的偏好视频类型信息;和/或确定用户视频标签信息中包含的视频类容信息所属的内容分类,将内容分类中包含的各个视频内容信息作为用户的偏好视频内容信息,当然,这仅仅是本发明的一个具体实施方式,本发明并不以此为限。
步骤S206,根据推荐类型信息以及用户的视频偏好信息选取目标推荐视频,向用户推荐目标推荐视频。
根据推荐类型信息以及用户的视频偏好信息,在视频库的海量视频中选取出类型信息与推荐类型信息相匹配的视频、以及类型信息/或内容信息与用户的视频偏好信息相匹配的视频,作为目标推荐视频,并向用户推荐目标推荐视频。
具体实施时,可采用算法推荐的方式来进行视频推荐,在得到用户的情绪标签信息和兴趣视频标签信息之后,将用户的情绪标签信息以及用户的兴趣标签信息输入至预设的推荐模型中,得到目标推荐视频,向用户推荐目标推荐视频。其中,预设的推荐模型的处理逻辑参见上述关于步骤S204-S206的描述,在此不进行赘述。由此可见,该方式在视频推荐模型中融入用户的心情因素以及用户对视频内容的兴趣标签,提高了推荐模型的准确率,保证了推荐结果的多样性。
众所周知,不同年龄层次的用户针对于视频的兴趣点不一样,男性用户和女性用户针对于视频的兴趣点也是不一样的,因此,除了用户的情绪标签信息和兴趣视频标签信息之外,还可以将年龄维度信息和性别维度信息融入到视频推荐模型中,综合用户年龄、性别、情绪、视频偏好四个维度的信息,来预测用户可能感兴趣的视频。
具体地,在采集到用户的面部图像信息之后,根据面部图像数据,确定用户的年龄信息和性别信息。其中,根据面部图像数据,提取年龄特征信息,将年龄特征信息输入至预设的年龄检测模型,得到用户的年龄信息;根据面部图像数据,提取性别特征信息,将性别特征输入至预设的性别检测模型,得到用户的性别信息。
其中,将年龄进行分段,分为1(<18)、18(18-24)、25(25-34)、35(35-44)、45(45-49)、50(50-55)、56(56+)等七个年龄段。通过如下步骤训练得到年龄检测模型:(1)收集人脸图片正、负样本,数据预处理及归一化,并进行年龄标注;(2)使用卷积神经网络进行特征提取和年龄分类;(3)模型训练得到最终的年龄检测模型。后续过程中,针对于面部图像数据提取年龄特征信息,将年龄特征信息输入至年龄检测模型中,即可得到用户的年龄信息。
通过如下步骤得到性别检测模型:(1)收集人脸图片正、负样本,数据预处理及归一化,并进行性别标注;(2)提取正、负样本图像的梯度直方图特征(Histogram ofOriented Gradient,HOG);(3)将提取的正、负样本的HOG特征,送入支持向量机(SupportVector Machine,SVM);4)迭代训练得到最终的分类器模型。后续过程中,针对于面部图像数据提取性别特征信息,将性别特征信息输入至年龄检测模型中,即可得到用户的性别信息。
最终,将用户的年龄信息、性别信息、情绪标签信息、兴趣视频标签信息输入至预设的推荐模型中,得到目标推荐模型,向用户推荐目标推荐视频。
根据本实施例所提供的方法,该方式基于用户的面部表情生成用户的情绪标签,以及基于用户的视线方向生成用户的视频兴趣标签,在视频推荐中融入了用户的情绪维度信息和视频偏好维度信息,使推荐模型的特征更为真实和丰富,提高了推荐模型的准确率,使得推荐结果更具多样性和更加个性化,有效地解决了用户冷启动的问题。另外,在推荐模型中融入用户性别和年龄维度的信息,能够进一步提升推荐的准确率。
图4示出了根据本发明另一个实施例的视频推荐装置的功能模块图,如图4所示,该装置包括:
获取模块41,适于获取用户的面部图像数据;
关键点检测模块42,适于检测面部图像数据中包含的面部关键点信息;
情绪标签生成模块43,适于根据面部关键点信息确定用户的情绪标签信息;
视线方向检测模块44,适于在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果;
兴趣标签生成模块45,适于根据兴趣程度结果,得到用户的兴趣视频标签信息;
视频推荐模块46,适于根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。
在一种可选的方式中,视频推荐模块46进一步适于:
将用户的情绪标签信息以及用户的兴趣标签信息输入至预设的推荐模型中,得到目标推荐视频,向用户推荐目标推荐视频。
在一种可选的方式中,视线方向检测模块44进一步适于:检测用户的左右眼视线方向是否一致,以及检测第一时刻和第二时刻用户的左眼视线方向是否一致,检测第一时刻和第二时刻用户的右眼视线方向是否一致;
则兴趣标签生成模块45进一步适于:若用户的左右眼视线方向一致,第一时刻和第二时刻用户的左眼视线方向一致,以及第一时刻和第二时刻用户的右眼视线方向一致,则得到用户对视频感兴趣的兴趣程度结果。
在一种可选的方式中,该装置进一步包括:
性别检测模块,适于根据面部图像数据,确定用户的性别信息;
年龄检测模块,适于根据面部图像数据,确定用户的年龄信息;
则视频推荐模块46进一步适于:根据用户的年龄信息、性别信息、情绪标签信息以及兴趣视频标签信息,向用户推荐视频。
在一种可选的方式中,年龄检测模块进一步适于:根据面部图像数据,提取年龄特征信息,将年龄特征信息输入至预设的年龄检测模型,得到用户的年龄信息;
性别检测模块进一步适于:根据面部图像数据,提取性别特征信息,将性别特征输入至预设的性别检测模型,得到用户的性别信息。
本申请实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的视频推荐方法。
图5示出了根据本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述视频推荐方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行以下操作:获取用户的面部图像数据,检测面部图像数据中包含的面部关键点信息,根据面部关键点信息确定用户的情绪标签信息;在播放视频的过程中,检测用户的视线方向信息,根据视线方向信息确定用户对于视频的兴趣程度结果,根据兴趣程度结果,得到用户的兴趣视频标签信息;根据用户的情绪标签信息以及用户的兴趣视频标签信息,向用户推荐视频。
在一种可选的方式中,程序510具体可以用于使得处理器502执行以下操作:按照预设的类型推荐策略,根据用户的情绪标签信息确定推荐类型信息;根据用户的兴趣视频标签信息,确定用户的视频偏好信息;其中,视频偏好信息包含偏好视频类型信息和/或偏好视频内容信息;根据推荐类型信息以及用户的视频偏好信息选取目标推荐视频,向用户推荐目标推荐视频。
在一种可选的方式中,程序510具体可以用于使得处理器502执行以下操作:将用户的情绪标签信息以及用户的兴趣标签信息输入至预设的推荐模型中,得到目标推荐视频,向用户推荐目标推荐视频。
在一种可选的方式中,程序510具体可以用于使得处理器502执行以下操作:检测用户的左右眼视线方向是否一致,以及检测第一时刻和第二时刻用户的左眼视线方向是否一致,检测第一时刻和第二时刻用户的右眼视线方向是否一致;若用户的左右眼视线方向一致,第一时刻和第二时刻用户的左眼视线方向一致,以及第一时刻和第二时刻用户的右眼视线方向一致,则得到用户对视频感兴趣的兴趣程度结果。
在一种可选的方式中,程序510具体可以用于使得处理器502执行以下操作:根据面部图像数据,确定用户的年龄信息和性别信息;根据用户的年龄信息、性别信息、情绪标签信息以及兴趣视频标签信息,向用户推荐视频。
在一种可选的方式中,程序510具体可以用于使得处理器502执行以下操作:根据面部图像数据,提取年龄特征信息,将年龄特征信息输入至预设的年龄检测模型,得到用户的年龄信息;根据面部图像数据,提取性别特征信息,将性别特征输入至预设的性别检测模型,得到用户的性别信息。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的计算设备中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。