CN106341720B - 一种在视频直播中添加脸部特效的方法及装置 - Google Patents
一种在视频直播中添加脸部特效的方法及装置 Download PDFInfo
- Publication number
- CN106341720B CN106341720B CN201610685648.6A CN201610685648A CN106341720B CN 106341720 B CN106341720 B CN 106341720B CN 201610685648 A CN201610685648 A CN 201610685648A CN 106341720 B CN106341720 B CN 106341720B
- Authority
- CN
- China
- Prior art keywords
- face
- special efficacy
- specified
- designated person
- live streaming
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000009471 action Effects 0.000 claims description 41
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 9
- 240000007711 Peperomia pellucida Species 0.000 description 7
- 241000283973 Oryctolagus cuniculus Species 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000009331 sowing Methods 0.000 description 3
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明涉及互联网技术领域,尤其涉及一种在视频直播中添加脸部特效的方法及装置,包括:获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。本发明实现了根据目标脸部特效包含的第一指定人脸特征为视频直播节目中的指定人物对象的第一指定人脸特征添加特效的技术效果,使得直播效果多元化,更好的满足了用户的需求。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种在视频直播中添加脸部特效的方法及装置。
背景技术
随着科学技术的快速发展,越来越多的电子多媒体技术应用到人们的日常生活中,其中,视频直播就是其中一种新兴的应用。视频直播可以同一时间透过网络系统在不同的交流平台以视讯的方式进行现场直播,具有直观、快速、交互性强的特点。
现有的视频直播仅是将主播端实时采集到的影像信息发送给全网用户,直播效果单一,无法满足用户多元化的娱乐需求。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的在视频直播中添加脸部特效的方法及装置。
依据本发明的一个方面,提供了一种在视频直播中添加脸部特效的方法,包括:
获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;
根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述方法还包括:
根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述方法还包括:
检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
可选的,在所述将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处之后,所述方法还包括:
将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
可选的,所述视频直播节目中的人物对象为主播或直播嘉宾。
可选的,所述对所述直播人物对象中的指定人物进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征,包括:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
依据本发明的另一个方面,提供了一种在视频直播中添加脸部特效的装置,包括:
选择操作获得单元,用于获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;
目标脸部特效确定单元,用于根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
人脸识别单元,用于对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
第一目标脸部特效添加单元,用于将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述装置还包括:
调整单元,用于根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
第二目标脸部特效添加单元,用于将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述装置还包括:
触发动作检测单元,用于检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
特效动画加载单元,用于当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
可选的,所述装置还包括:
直播画面发送单元,用于将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
可选的,所述视频直播节目中的人物对象为主播或直播嘉宾。
可选的,所述人脸识别单元具体用于:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
根据本发明的在视频直播中添加脸部特效的方法及装置,首先通过获得视频直播节目中的人物对象对脸部特效进行的选择操作,该脸部特征对应指定人脸特征,接着根据选择操作确定出待添加的目标脸部特效,目标脸部特效对应第一指定人脸特征,然后对视频直播节目中的指定人物对象进行人脸识别,识别出指定人物对象的第一指定人脸特征,最后将目标脸部特效添加到指定人物对象的第一指定人脸特征处,从而实现了根据目标脸部特效包含的第一指定人脸特征为视频直播节目中的指定人物对象的第一指定人脸特征添加特效的技术效果,使得直播效果多元化,更好的满足了用户的需求。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考图形表示相同的部件。在附图中:
图1示出了本发明实施例的在视频直播中添加脸部特效的方法的流程图;
图2示出了本发明实施例的在视频直播中添加脸部特效的装置的结构图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1是本发明实施例中一种在视频直播中添加脸部特效的方法的流程图,该方法应用于主播端。具体地,该方法可以包括以下步骤:
步骤101:获得视频直播节目中的人物对象对脸部特效进行的选择操作,脸部特效对应指定人脸特征。
具体来讲,某一用户在主播端创建视频直播节目,该用户即为该视频直播节目的主播,其中,在一种形式的视频直播节目中,直播的人物对象仅包含主播自己,而,在另一种形式的视频直播节目中,直播的人物对象不仅包含主播自己还包含直播嘉宾,主播端向直播嘉宾端发起直播邀请,在直播嘉宾端接受直播邀请后,直播嘉宾加入该主播创建的视频直播节目,在该主播发起的视频直播节目中同时存在该主播和该直播嘉宾。
进一步,当视频直播节目中只包含主播自己时,主播端获得主播对脸部特效进行的选择操作,当视频直播节目中包含主播和直播嘉宾时,主播端获得的选择操作的操作主体可以为主播,也可以为直播嘉宾,即,对脸部特效进行选择操作的视频直播节目中的人物对象可以为主播,也可以为直播嘉宾,当执行选择操作的人物对象为主播时,主播端直接获得主播对其进行选择操作,当执行选择操作的人物对象为直播嘉宾时,直播嘉宾在直播嘉宾端进行选择操作,直播嘉宾端将选择操作包含的选择信息发送给主播端,主播端接收直播嘉宾端发送的选择信息,通过解析选择信息获得直播嘉宾对脸部特效进行的选择操作。
具体来讲,每个脸部特效都对应一指定人脸特征,指定人脸特征包含头发、鼻子、眼睛、耳朵、嘴巴和上嘴唇的下边缘中的至少一种人脸特征。例如,当脸部特效为兔耳特效时,兔耳特效对应的指定人脸特征为头发,当脸部特效为兔牙特效时,兔牙特效对应的指定人脸特征为上嘴唇的下边缘,当脸部特效为美瞳特效时,美瞳特效对应的指定人脸特征为眼睛特征,等等,本领域技术人员还可以根据其他类型的人脸特征制作脸部特效,从而使脸部特效对应其他类型的人脸特征,并且,对应同一脸部特效,在不同的情况下,可以定义不同的指定人脸特征与其对应,例如,可以定义与兔耳特效对应的指定人脸特征为头发,也可以定义与兔耳特效对应的指定人脸特征为耳朵,本申请对脸部特效具体对应何种人脸特征不做限定。
步骤102:根据选择操作确定出目标脸部特效,目标脸部特效对应第一指定人脸特征。
具体来讲,主播端根据获得的来自主播或直播嘉宾的选择操作,确定出目标脸部特效,目标脸部特效对应待识别的第一指定人脸特征。例如,主播端根据选择操作,确定出目标脸部特效为兔牙特效,该目标脸部特效对应的第一指定人脸特征为上嘴唇的下边缘。
步骤103:对视频直播节目中的指定人物对象进行人脸识别,识别出指定人物对象的第一指定人脸特征。
当视频直播节目中仅包含主播自己时,默认进行人脸识别的指定人物对象为主播,主播端对直播画面中的主播进行人脸识别,识别出主播的第一指定人脸特征。
当视频直播节目中不仅包含主播自己还包含直播嘉宾时,主播端获得视频直播节目中的人物对象对待添加特效的人物对象进行指定的指定操作,根据指定操作确定出指定人物对象,进而,首先在直播画面中对指定人物对象进行识别,接着在识别出的指定人物对象中对第一指定人脸特征进行识别。其中,主播端获得的指定操作的操作主体可以为主播,也可以为直播嘉宾,对人物对象进行指定操作的视频直播节目中的人物对象可以为主播,也可以为直播嘉宾,当执行指定操作的人物对象为主播时,主播端直接获得主播对其进行的指定操作,根据主播的指定操作确定出指定人物对象。当执行指定操作的人物对象为直播嘉宾时,直播嘉宾在直播嘉宾端进行指定操作,直播嘉宾端将与指定操作对应的指定信息发送给主播端,主播端接收直播嘉宾端发送的指定信息,通过解析指定信息获得直播嘉宾对人物对象进行的指定操作,进而根据直播嘉宾的指定操作确定出指定人物对象。而,根据指定操作确定出的指定人物对象可以为主播,也可以为直播嘉宾,还可以将视频直播节目中的所有人物对象均作为指定人物对象。进而,在确定出指定人物对象后,对指定人物对象进行人脸识别,识别出指定人物对象的第一指定人脸特征。当将视频直播节目中的所有人物对象均作为指定人物对象时,对所有人物对象进行人脸识别,分别识别出各个人物对象的第一指定人脸特征,即,对主播和直播嘉宾均进行人脸识别,分别识别出主播的第一指定人脸特征和直播嘉宾的第一指定人脸特征。
步骤104:将目标脸部特效添加到指定人物对象的第一指定人脸特征处。
具体来讲,当目标脸部特效为兔牙特效,兔牙特效对应的第一指定人脸特征为上嘴唇的下边缘,且,指定人物对象为主播时,在识别出主播的上嘴唇的下边缘后,将兔牙特效添加到主播的上嘴唇的下边缘处。当目标脸部特效为兔耳特效,兔耳特效对应的第一指定人脸特征为头发,且,指定人物对象为主播和直播嘉宾时,在识别出主播和直播嘉宾的头发后,将兔耳特效分别添加到主播和直播嘉宾的头发处。当目标脸部特效为美瞳特效,美瞳特效对应的第一指定人脸特征为眼睛,且指定人物对象为直播嘉宾时,在识别出直播嘉宾的眼睛后,将美瞳特效添加到直播嘉宾的眼睛处。上述三个例子仅是为了更好的对本申请进行说明所举出的示例,本领域技术人员可以根据上述内容得到其他脸部特效和不同的指定人物对象之间相互组合的其他实现方式,本申请不再一一列举。
进一步,本申请的在视频直播中添加脸部特效的方法还包括以下步骤:
根据识别出的指定人物对象的第一指定人脸特征的大小和形状,对应调整目标脸部特效的大小和形状,将调整后的目标脸部特效添加到指定人物对象的第一指定人脸特征处。
具体来讲,目标脸部特效在定义时存在一预设的大小和形状,预设的大小和形状往往与指定人物对象的第一指定人脸特征的大小和形状不同,因此,在识别出指定人物对象的第一指定人脸特征后,根据识别出的指定人物对象的第一指定人脸特征的大小和形状,对应调整目标脸部特效的大小和形状,从而,通过将调整后的目标脸部特效添加到指定人物对象的第一指定人脸特征处,使得目标脸部特效能够完全贴合指定人物对象的第一指定人脸特征。
由于直播画面为动态画面,在实时采集图像并上传图像的过程中,通过将将调整后的目标脸部特效添加到指定人物对象的第一指定人脸特征处,还能够实现根据人物对象与图像采集单元之间距离的远近动态调整目标脸部特征的大小的技术效果,例如,当指定人物对象移动到距离图像采集单元较远的位置时,直播画面中指定人物对象的第一指定人脸特征会相应地变小,则将目标脸部特效对应缩小,并将缩小后的目标脸部特效添加到指定人物对象的第一指定人脸特征处,当指定人物对象移动到距离图像采集单元较近的位置时,直播画面中指定人物对象的第一指定人脸特征会相应地较大,则将目标脸部特效对应放大,并将放大后的目标脸部特效添加到指定人物对象的第一指定人脸特征处。
进一步,本申请的在视频直播中添加脸部特效的方法还包括以下步骤:
检测识别出的指定人物对象的第一指定人脸特征是否存在触发动作,当存在触发动作时,根据触发动作在识别出的指定人物对象的第一指定人脸特征处加载与触发动作对应的特效动画。
具体来讲,在识别出指定人物对象的第一指定人脸特征后,检测该第一指定人脸特征是否存在触发动作,触发动作与目标脸部特效对应,例如,当第一指定人脸特征为眼睛时,触发动作为眨眼。当存在触发动作时,在识别出的指定人物对象的第一指定人脸特征处加载与触发动作对应的特效动画,例如,若指定人物对象为主播,当检测出主播的眼睛存在眨眼动作时,在眼睛处播放媚眼动画。需要说明的是,本申请对脸部特效具体对应何种触发动作,以及触发动作具体对应何种特效动画不做限定。
进一步,在步骤104之后,本申请的在视频直播中添加脸部特效的方法还包括以下步骤:
将添加有目标脸部特效的直播画面发送给服务器,以使服务器将添加有目标脸部特效的直播画面分发给观看视频直播节目的其他电子设备。
本申请利用主播端进行目标脸部特效的添加,再通过服务器分发给观看该视频直播节目的所有用户,能够实现快速的将添加有直播画面分发给观看该视频直播节目的所有用户,保证添加有目标脸部特效的直播画面无延迟。
与本发明实施例提供的在视频直播中添加脸部特效的方法相对应,本发明实施例还提供了一种在视频直播中添加脸部特效的方法的装置,参见图2,所述装置包括:
选择操作获得单元201,用于获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;
目标脸部特效确定单元202,用于根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
人脸识别单元203,用于对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
第一目标脸部特效添加单元204,用于将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述装置还包括:
调整单元,用于根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
第二目标脸部特效添加单元,用于将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
可选的,所述装置还包括:
触发动作检测单元,用于检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
特效动画加载单元,用于当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
可选的,所述装置还包括:
直播画面发送单元,用于将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
可选的,所述视频直播节目中的人物对象为主播或直播嘉宾。
可选的,人脸识别单元203具体用于:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
总之,根据本发明的在视频直播中添加脸部特效的方法及装置,首先通过获得视频直播节目中的人物对象对脸部特效进行的选择操作,该脸部特征对应指定人脸特征,接着根据选择操作确定出待添加的目标脸部特效,目标脸部特效对应第一指定人脸特征,然后对视频直播节目中的指定人物对象进行人脸识别,识别出指定人物对象的第一指定人脸特征,最后将目标脸部特效添加到指定人物对象的第一指定人脸特征处,从而实现了根据目标脸部特效包含的第一指定人脸特征为视频直播节目中的指定人物对象的第一指定人脸特征添加特效的技术效果,使得直播效果多元化,更好的满足了用户的需求。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的在视频直播中添加脸部特效的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
本发明公开了,A1、一种在视频直播中添加脸部特效的方法,包括:
获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;
根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
A2、根据A1所述的方法,所述方法还包括:
根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
A3、根据A1所述的方法,所述方法还包括:
检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
A4、根据A1所述的方法,在所述将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处之后,所述方法还包括:
将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
A5、根据A1-A4中任一所述的方法,所述视频直播节目中的人物对象为主播或直播嘉宾。
A6、根据A1-A4中任一所述的方法,所述对所述直播人物对象中的指定人物进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征,包括:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
B7、一种在视频直播中添加脸部特效的装置,包括:
选择操作获得单元,用于获得视频直播节目中的人物对象对脸部特效进行的选择操作,所述脸部特效对应指定人脸特征;
目标脸部特效确定单元,用于根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
人脸识别单元,用于对所述视频直播节目中的指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
第一目标脸部特效添加单元,用于将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
B8、根据B7所述的装置,其特征在于,所述装置还包括:
调整单元,用于根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
第二目标脸部特效添加单元,用于将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
B9、根据B7所述的装置,其特征在于,所述装置还包括:
触发动作检测单元,用于检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
特效动画加载单元,用于当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
B10、根据B7所述的装置,其特征在于,所述装置还包括:
直播画面发送单元,用于将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
B11、根据B7-B10中任一所述的装置,所述视频直播节目中的人物对象为主播或直播嘉宾。
B12、根据B7-B10中任一所述的装置,所述人脸识别单元具体用于:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
Claims (8)
1.一种在视频直播中添加脸部特效的方法,其特征在于,应用于主播端,包括:
接收直播嘉宾端发送的选择信息,所述选择信息由直播嘉宾在所述直播嘉宾端对脸部特效进行选择操作生成,所述脸部特效对应指定人脸特征;
对所述选择信息进行解析,获得所述选择操作;
根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
接收所述直播嘉宾端发送的指定信息,所述指定信息由所述直播嘉宾在所述直播嘉宾端对人物对象进行指定操作生成;
对所述指定信息进行解析,获得所述指定操作,并根据所述指定操作确定出指定人物对象;
对所述指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
3.如权利要求1所述的方法,其特征在于,在所述将所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处之后,所述方法还包括:
将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
4.如权利要求1-3中任一权利要求所述的方法,其特征在于,所述对所述直播人物对象中的指定人物进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征,包括:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
5.一种在视频直播中添加脸部特效的装置,其特征在于,应用于主播端,包括:
选择操作获得单元,用于接收直播嘉宾端发送的选择信息,所述选择信息由直播嘉宾在所述直播嘉宾端对脸部特效进行选择操作生成,所述脸部特效对应指定人脸特征;对所述选择信息进行解析,获得所述选择操作;
目标脸部特效确定单元,用于根据所述选择操作确定出目标脸部特效,所述目标脸部特效对应第一指定人脸特征;
人脸识别单元,用于接收所述直播嘉宾端发送的指定信息,所述指定信息由所述直播嘉宾在所述直播嘉宾端对人物对象进行指定操作生成;对所述指定信息进行解析,获得所述指定操作,并根据所述指定操作确定出指定人物对象;对所述视频直播节目中的直播指定人物对象进行人脸识别,识别出所述指定人物对象的所述第一指定人脸特征;
调整单元,用于根据识别出的所述指定人物对象的所述第一指定人脸特征的大小和形状,对应调整所述目标脸部特效的大小和形状;
第二目标脸部特效添加单元,用于将调整后的所述目标脸部特效添加到所述指定人物对象的所述第一指定人脸特征处。
6.如权利要求5所述的装置,其特征在于,所述装置还包括:
触发动作检测单元,用于检测识别出的所述指定人物对象的所述第一指定人脸特征是否存在触发动作;
特效动画加载单元,用于当存在所述触发动作时,根据所述触发动作在识别出的所述指定人物对象的所述第一指定人脸特征处加载与所述触发动作对应的特效动画。
7.如权利要求5所述的装置,其特征在于,所述装置还包括:
直播画面发送单元,用于将添加有所述目标脸部特效的直播画面发送给服务器,以使所述服务器将添加有所述目标脸部特效的直播画面分发给观看所述视频直播节目的其他电子设备。
8.如权利要求5-7中任一权利要求所述的装置,其特征在于,所述人脸识别单元具体用于:
对所述视频直播节目中的所有人物对象进行人脸识别,分别识别出各个人物对象的所述第一指定人脸特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610685648.6A CN106341720B (zh) | 2016-08-18 | 2016-08-18 | 一种在视频直播中添加脸部特效的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610685648.6A CN106341720B (zh) | 2016-08-18 | 2016-08-18 | 一种在视频直播中添加脸部特效的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106341720A CN106341720A (zh) | 2017-01-18 |
CN106341720B true CN106341720B (zh) | 2019-07-26 |
Family
ID=57824772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610685648.6A Active CN106341720B (zh) | 2016-08-18 | 2016-08-18 | 一种在视频直播中添加脸部特效的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106341720B (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107071580A (zh) * | 2017-03-20 | 2017-08-18 | 北京潘达互娱科技有限公司 | 数据处理方法及装置 |
CN106804007A (zh) * | 2017-03-20 | 2017-06-06 | 合网络技术(北京)有限公司 | 一种网络直播中自动匹配特效的方法、系统及设备 |
CN107124658B (zh) * | 2017-05-02 | 2019-10-11 | 北京小米移动软件有限公司 | 视频直播方法及装置 |
CN107277632B (zh) * | 2017-05-12 | 2020-08-04 | 武汉斗鱼网络科技有限公司 | 一种展示虚拟礼物动画的方法和设备 |
CN107203964A (zh) * | 2017-05-24 | 2017-09-26 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN107257506A (zh) * | 2017-06-29 | 2017-10-17 | 徐文波 | 多画面特效加载方法和装置 |
CN111295692B (zh) * | 2017-08-30 | 2023-08-22 | 深圳传音通讯有限公司 | 一种立体水印贴纸实现方法、移动终端及存储介质 |
CN107592575B (zh) * | 2017-09-08 | 2021-01-26 | 广州方硅信息技术有限公司 | 一种直播方法、装置、系统及电子设备 |
CN107566911B (zh) * | 2017-09-08 | 2021-06-29 | 广州方硅信息技术有限公司 | 一种直播方法、装置、系统及电子设备 |
CN107613310B (zh) * | 2017-09-08 | 2020-08-04 | 广州华多网络科技有限公司 | 一种直播方法、装置及电子设备 |
CN107483892A (zh) * | 2017-09-08 | 2017-12-15 | 北京奇虎科技有限公司 | 视频数据实时处理方法及装置、计算设备 |
CN107564086A (zh) * | 2017-09-08 | 2018-01-09 | 北京奇虎科技有限公司 | 视频数据处理方法及装置、计算设备 |
CN107633479A (zh) * | 2017-09-14 | 2018-01-26 | 光锐恒宇(北京)科技有限公司 | 一种在应用中显示特效的方法和装置 |
CN109963088A (zh) * | 2017-12-14 | 2019-07-02 | 苏州梦想人软件科技有限公司 | 基于增强现实ar的网络直播方法、装置及系统 |
CN108090968B (zh) * | 2017-12-29 | 2022-01-25 | 光锐恒宇(北京)科技有限公司 | 增强现实ar的实现方法、装置和计算机可读存储介质 |
CN108259496B (zh) | 2018-01-19 | 2021-06-04 | 北京市商汤科技开发有限公司 | 特效程序文件包的生成及特效生成方法与装置、电子设备 |
CN108416832B (zh) * | 2018-01-30 | 2024-05-14 | 腾讯科技(深圳)有限公司 | 媒体信息的显示方法、装置和存储介质 |
CN108388434B (zh) * | 2018-02-08 | 2021-03-02 | 北京市商汤科技开发有限公司 | 特效程序文件包的生成及特效生成方法与装置、电子设备 |
CN108810576B (zh) * | 2018-03-28 | 2022-01-07 | 广州方硅信息技术有限公司 | 连麦直播的方法、装置及存储介质 |
CN108537725A (zh) * | 2018-04-10 | 2018-09-14 | 光锐恒宇(北京)科技有限公司 | 一种视频处理方法和装置 |
CN109033959B (zh) * | 2018-06-20 | 2022-03-29 | 北京微播视界科技有限公司 | 为对象的面部增加特效的方法及装置 |
CN109089058B (zh) * | 2018-07-06 | 2021-05-11 | 广州方硅信息技术有限公司 | 视频画面处理方法、电子终端及装置 |
CN108848394A (zh) * | 2018-07-27 | 2018-11-20 | 广州酷狗计算机科技有限公司 | 视频直播方法、装置、终端及存储介质 |
CN109068053B (zh) * | 2018-07-27 | 2020-12-04 | 香港乐蜜有限公司 | 图像特效展示方法、装置和电子设备 |
CN108958610A (zh) | 2018-07-27 | 2018-12-07 | 北京微播视界科技有限公司 | 基于人脸的特效生成方法、装置和电子设备 |
CN109147023A (zh) | 2018-07-27 | 2019-01-04 | 北京微播视界科技有限公司 | 基于人脸的三维特效生成方法、装置和电子设备 |
CN109660724A (zh) * | 2018-12-20 | 2019-04-19 | 惠州Tcl移动通信有限公司 | 一种图像处理方法、装置及存储介质 |
CN109819316B (zh) * | 2018-12-28 | 2021-06-01 | 北京字节跳动网络技术有限公司 | 处理视频中人脸贴纸的方法、装置、存储介质及电子设备 |
CN110035227A (zh) * | 2019-03-25 | 2019-07-19 | 维沃移动通信有限公司 | 特效效果显示方法及终端设备 |
CN110012352B (zh) * | 2019-04-17 | 2020-07-24 | 广州华多网络科技有限公司 | 图像特效处理方法、装置及视频直播终端 |
CN110490828B (zh) * | 2019-09-10 | 2022-07-08 | 广州方硅信息技术有限公司 | 视频直播中的图像处理方法和系统 |
CN110719415B (zh) * | 2019-09-30 | 2022-03-15 | 深圳市商汤科技有限公司 | 一种视频图像处理方法、装置、电子设备及计算机可读介质 |
CN110677713B (zh) * | 2019-10-15 | 2022-02-22 | 广州酷狗计算机科技有限公司 | 视频图像处理方法及装置、存储介质 |
CN110933452B (zh) * | 2019-12-02 | 2021-12-03 | 广州酷狗计算机科技有限公司 | 萌脸礼物显示方法、装置及存储介质 |
CN111240482B (zh) * | 2020-01-10 | 2023-06-30 | 北京字节跳动网络技术有限公司 | 一种特效展示方法及装置 |
CN113434223A (zh) * | 2020-03-23 | 2021-09-24 | 北京字节跳动网络技术有限公司 | 特效处理方法及装置 |
CN113709383B (zh) * | 2020-05-21 | 2024-05-03 | 抖音视界有限公司 | 配置视频特效方法、装置、设备及存储介质 |
CN113422910A (zh) * | 2021-05-17 | 2021-09-21 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN113744127A (zh) * | 2021-08-27 | 2021-12-03 | 北京百度网讯科技有限公司 | 美瞳实现方法、装置、电子设备及可读存储介质 |
CN113744135A (zh) * | 2021-09-16 | 2021-12-03 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101018314A (zh) * | 2006-02-07 | 2007-08-15 | Lg电子株式会社 | 移动通信中的视频通话 |
CN103369288A (zh) * | 2012-03-29 | 2013-10-23 | 深圳市腾讯计算机系统有限公司 | 基于网络视频的即时通讯方法及系统 |
CN104410923A (zh) * | 2013-11-14 | 2015-03-11 | 贵阳朗玛信息技术股份有限公司 | 基于视频聊天室的动画呈现方法及装置 |
CN105334963A (zh) * | 2015-10-29 | 2016-02-17 | 广州华多网络科技有限公司 | 一种虚拟物品展示方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008135923A (ja) * | 2006-11-28 | 2008-06-12 | Taiwan Mukojo Kagi Kofun Yugenkoshi | リアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システム |
CN103702040B (zh) * | 2013-12-31 | 2018-03-23 | 广州华多网络科技有限公司 | 实时视频图饰叠加处理方法及系统 |
-
2016
- 2016-08-18 CN CN201610685648.6A patent/CN106341720B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101018314A (zh) * | 2006-02-07 | 2007-08-15 | Lg电子株式会社 | 移动通信中的视频通话 |
CN103369288A (zh) * | 2012-03-29 | 2013-10-23 | 深圳市腾讯计算机系统有限公司 | 基于网络视频的即时通讯方法及系统 |
CN104410923A (zh) * | 2013-11-14 | 2015-03-11 | 贵阳朗玛信息技术股份有限公司 | 基于视频聊天室的动画呈现方法及装置 |
CN105334963A (zh) * | 2015-10-29 | 2016-02-17 | 广州华多网络科技有限公司 | 一种虚拟物品展示方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106341720A (zh) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106341720B (zh) | 一种在视频直播中添加脸部特效的方法及装置 | |
CN106231415A (zh) | 一种在视频直播中互动添加脸部特效的方法及装置 | |
US20200175828A1 (en) | Spatialized haptic feedback based on dynamically scaled values | |
JP6775557B2 (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
US8990842B2 (en) | Presenting content and augmenting a broadcast | |
CN106303354B (zh) | 一种脸部特效推荐方法及电子设备 | |
CN105635788B (zh) | 视频播放过程中插播广告的方法及装置 | |
CN106454481B (zh) | 一种移动终端直播互动的方法及装置 | |
CN108391153A (zh) | 虚拟礼物显示方法、装置及电子设备 | |
CN107633541B (zh) | 一种图像特效的生成方法和装置 | |
CN106231362B (zh) | 一种基于主播节目的信息推荐方法、电子设备及服务器 | |
CN107124664A (zh) | 应用于视频直播的交互方法和装置 | |
US20090322889A1 (en) | Method and apparatus for illuminating users of video communication devices | |
US20200233489A1 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
CN110557699A (zh) | 一种智能音箱交互方法、装置、设备及存储介质 | |
US10425769B2 (en) | Media navigation recommendations | |
CN107172414A (zh) | 一种虚拟现实头戴显示器设备及其处理信息的方法 | |
CN104407766A (zh) | 一种信息处理方法和穿戴式电子设备 | |
JP2023036740A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
JP2010113618A (ja) | 画像配信装置、方法及びプログラム | |
US20200034606A1 (en) | Facial mirroring in virtual and augmented reality | |
CN108074127B (zh) | 业务对象的数据分析方法、装置和电子设备 | |
CN104079654B (zh) | 应用程序图片发布方法、客户端和电子设备 | |
CN111638918A (zh) | 用于呈现信息的方法和装置 | |
CN104461586B (zh) | 一种显示应用程序闪屏图像的方法、装置和终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220711 Address after: Room 801, 8th floor, No. 104, floors 1-19, building 2, yard 6, Jiuxianqiao Road, Chaoyang District, Beijing 100015 Patentee after: BEIJING QIHOO TECHNOLOGY Co.,Ltd. Address before: 100088 room 112, block D, 28 new street, new street, Xicheng District, Beijing (Desheng Park) Patentee before: BEIJING QIHOO TECHNOLOGY Co.,Ltd. Patentee before: Qizhi software (Beijing) Co., Ltd |