CN116437034A - 视频特效添加方法、装置及终端设备 - Google Patents
视频特效添加方法、装置及终端设备 Download PDFInfo
- Publication number
- CN116437034A CN116437034A CN202310356438.2A CN202310356438A CN116437034A CN 116437034 A CN116437034 A CN 116437034A CN 202310356438 A CN202310356438 A CN 202310356438A CN 116437034 A CN116437034 A CN 116437034A
- Authority
- CN
- China
- Prior art keywords
- sliding
- special effect
- screen
- gesture
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 268
- 238000000034 method Methods 0.000 title claims abstract description 133
- 230000009471 action Effects 0.000 claims abstract description 47
- 230000011218 segmentation Effects 0.000 claims abstract description 20
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 239000000463 material Substances 0.000 claims description 131
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000006073 displacement reaction Methods 0.000 claims description 13
- 230000002441 reversible effect Effects 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 24
- 238000003709 image segmentation Methods 0.000 abstract description 22
- 238000004364 calculation method Methods 0.000 abstract description 17
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000001976 improved effect Effects 0.000 abstract description 3
- 210000003811 finger Anatomy 0.000 description 115
- 238000004891 communication Methods 0.000 description 35
- 230000006854 communication Effects 0.000 description 35
- 230000006870 function Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 238000007726 management method Methods 0.000 description 17
- 238000010295 mobile communication Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 13
- 230000003796 beauty Effects 0.000 description 10
- 210000000988 bone and bone Anatomy 0.000 description 9
- 230000003993 interaction Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 229920001621 AMOLED Polymers 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002188 osteogenic effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42653—Internal components of the client ; Characteristics thereof for processing graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了一种视频特效添加方法、装置及终端设备,用手势动作替代原有通过按键点击的方式开启特效,能够减少用户操作的复杂度,在视频通话来电时快速开启特效。能够根据用户手指滑过的区域面积或屏幕占比,做区域性的人像分割以及背景替换或虚化,提升产品的趣味性、可玩性和交互性。还能够在做人像分割之前,对原始图像进行下采样处理,从而大幅度降低人像分割的计算和功耗开销,从而允许需要大计算量的深度学习人像分割模型算法能够运行在算力和功耗受限的移动终端上,满足视频播放的帧率要求。
Description
本申请为2020年9月25日提交中国国家知识产权局、申请号为2020110213300、申请名称为“视频特效添加方法、装置及终端设备”的中国专利申请的分案,本申请全部内容包含在母案中。
【技术领域】
本申请涉及移动通信术领域,尤其涉及一种视频特效添加方法、装置及终端设备。
【背景技术】
目前许多视频通话产品都已支持在视频通话的过程中添加美颜、滤镜或背景替换等特效功能,这些特效功能深受用户的欢迎。在支持这些特效功能的视频通话产品中,当用户想添加特效时,需要先调起特效菜单,再点击选择,操作步骤比较繁琐。尤其在来电场景中,用户需要同时处理接听电话和调整特效菜单两种任务,操作很不方便。故亟需一种添加特效的快捷操作。
现有技术中的视频通话产品,通常在来电界面中显示特效图标,用户点击特效图标就能展开特效菜单或美颜调节条。当用户需要应用特效时,需要先点击特效图标,展开特效编辑菜单,再点击选择特效缩略图或在菜单内滑动调节美颜级别。在用户交互过程中,用户需要至少两次点击才能开启指定的特效,交互过程繁琐,整个流程耗时较长,并且图标的点击区域比较小,不方便快捷操作。故无法满足在来电状态下快速达到开启特效的目的。
【申请内容】
有鉴于此,本申请实施例提供了一种视频特效添加方法、装置及终端设备,用以解决现有技术中用户在视频通话时添加特效不方便、不快捷的技术问题。
第一方面,本申请实施例提供了一种视频特效添加方法,所述方法包括以下步骤:捕捉用户的手势动作,获取所述手势动作的滑动信息;根据所述手势动作的滑动信息,将特效素材应用于屏幕上。
通过本实施例提供的方案,有别于现有技术中用户在视频通话过程中开启特效需要至少两次点击的操作而导致的交互过程繁琐的问题,本实施例提供的方案通过对用户的手势动作的滑动信息进行捕捉和处理,能够达到用户的手指滑动到哪里特效就加到哪里的效果。
在一种优选的实施方案中,所述捕捉用户的手势动作,获取所述手势动作的滑动信息的步骤,包括:实时捕捉和记录用户的手指在所述屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;根据手指的所述起点坐标信息和所述终点坐标信息,判断手指的滑动方向以及滑动速度;根据手指的滑动方向,判断用户所采用的滑动手势;其中,所述滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
通过本实施例提供的方案,用户滑动时手指滑过屏幕会留下滑动信息,滑动起点的起点坐标信息和滑动终点的终点坐标信息提供了判断滑动手势、滑动方向和滑动速度的依据,滑动手势提供用户的手指在屏幕上滑动的方式,滑动方向提供用户的手指在屏幕上滑动的路径,滑动速度提供用户的手指在屏幕上滑动的快慢,综合这些滑动信息就能够准确得知屏幕上需要替换特效素材的区域。
在一种优选的实施方案中,当所述滑动手势为边滑动手势时,执行以下步骤:根据手指的所述起点坐标信息和所述终点坐标信息,判断手指在所述屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及所述滑动速度V与预设的最小速度Vmin的大小关系;当D>Dmin且V>Vmin时,启动所述特效素材。
通过本实施例提供的方案,预先设定最小距离Dmin和最小速度Vmin作为判断用户的手指是否有效滑动的标准,通过计算手指在屏幕上的坐标位移D和滑动速度V,来判断用户的手指是否真的在进行手势操作,避免发生错误相应用户在屏幕上的误触碰而错误添加特效素材的问题。
在一种优选的实施方案中,当所述滑动手势为角滑动手势时,执行以下步骤:预设起点区域;其中,所述起点区域的横坐标的最大值为Xmax,横坐标的最大值为Ymax;根据手指的所述起点坐标信息,判断手指的滑动起点是否落在起点区域内;若手指的滑动起点的横坐标Xs<Xmax且纵坐标Ys<Ymax,则判断为手指的滑动起点位于预设的起点区域内;根据手指的所述起点坐标信息和所述终点坐标信息,判断手指在所述屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及所述滑动速度V与预设的最小速度Vmin的大小关系;当D>Dmin、V>Vmin且所述滑动起点与所述滑动终点的连线的斜率k的范围满足0.268<|k|<3.73或0.268<|k-1|<3.73时,启动所述特效素材。
通过本实施例提供的方案,预先设定起点区域和滑动区域,起点区域作为判定用户的手指是否能够触发滑动手势识别的判断条件,滑动区域作为判定用户的手指是否能够触发应用特效素材的判断条件,设定两个判断条件从而准确地判断用户的手指在屏幕的角落处是否存在滑动手势以及手指所滑动的区域大小,在屏幕的四个角落处设置的滑动区域,其边缘的倾角在15°到75°的范围内,用户的手指在执行角滑动手势时,就会覆盖滑动区域的部分或者全部,能够满足角滑动手势的判断要求,进而能够适应性地应用特效素材。
在一种优选的实施方案中,所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤,包括:根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域;对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换;其中,所述第一区域为与所述手势动作的滑动起点与滑动终点的连线相垂直且穿过所述滑动终点的分割线所扫过的屏幕的区域,所述第二区域为所述屏幕上除所述第一区域外的区域;所述滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
通过本实施例提供的方案,先进行人像分割和屏幕分割,将人像提取出,将屏幕分割为手指滑过的第一区域和未滑过的第二区域,并仅对第一区域的背景进行特效素材的替换。该方法能够实时捕捉手指在滑动中的位置,从而确定所需要替换背景的第一区域。在替换背景时,人像所占区域依旧显示人像,不会被替换成背景,形成前景人像不变,后方背景变化的效果,从而实现了实时捕捉用户的滑动手势、实时计算用户的手指滑过的区域、实时替换用户的手指滑过的区域的背景的功能。
在一种优选的实施方案中,所述根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域的步骤,包括:根据所述手势动作的滑动起点的起点坐标信息和滑动终点的终点坐标信息,创建所述分割线;根据所述分割线和所述滑动方向,将所述分割线沿所述滑动方向扫过的所述屏幕的区域分割为所述第一区域。
通过本实施例提供的方案,利用滑动起点的起点坐标信息和滑动终点的终点坐标信息能够通过简单的运算确定用于分割第一区域和第二区域的分割线在xy坐标系下的函数,从而能够在屏幕上确定手指扫过的第一区域。该方法占用的计算资源较少,处理速度较快,能够适应手势动作的滑动速度较快的场景下的特效素材添加。
在一种优选的实施方案中,所述对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换的步骤,包括:对所述人像的原始图像使用双线性插值算法进行下采样,得到下采样图像;计算所述下采样图像中的人物的轮廓,并对所述人物的轮廓使用双线性插值算法进行上采样,得到所述原始图像的轮廓;基于所述原始图像的轮廓从所述原始图像中将所述人像分割出来,得到第一图层;将背景位于所述第一区域中的部分进行特效素材替换,得到第二图像;将所述第一图像与所述第二图像进行叠加。
通过本实施例提供的方案,在做人像分割之前,对原始图像进行下采样处理,从而大幅度降低人像分割的计算和功耗开销,从而允许需要大计算量的深度学习人像分割模型算法能够运行在算力和功耗受限的移动终端上,满足视频播放的帧率要求。
在一种优选的实施方案中,根据所述第一区域的区域面积或所述第一区域占所述屏幕的屏幕占比,选择所述特效素材的添加等级。
通过本实施例提供的方案,在添加特效素材的过程中,用户可以自行选择添加特效素材的量,体现在操作应用中就是可以根据用户的手指滑过屏幕的区域大小来选择特效素材的添加等级,这样的操作方法能够满足用户更多、更复杂的特效添加需求。
在一种优选的实施方案中,所述第一区域的屏幕占比每增加10%,所述特效素材的添加等级对应提升一级。
通过本实施例提供的方案,能够给用户提供更加平滑的视频特效添加体验。
在一种优选的实施方案中,当所述第一区域的屏幕占比大于50%且所述手势动作的滑动终点的终点坐标信息不再变化时,将所述屏幕的整个背景进行特效素材替换。
通过本实施例提供的方案,由于用户在手指滑动大半的情况下往往就代表着有全部替换背景的需求,故采用本优选实施方案的方法能够便于用户操作,增强用户体验。
在一种优选的实施方案中,在所述根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域的步骤之前,包括:根据所述滑动速度判断所述手势动作的滑动是否有效;若所述滑动速度大于第一速度,则将所述屏幕的背景进行整体特效素材替换;若所述滑动速度小于第二速度,则不执行根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤;其中,所述第一速度大于所述第二速度。
通过本实施例提供的方案,预设两个用于判断滑动速度的判断条件,滑动速度大于第一速度时,可以认为用户需要对整个背景进行替换,滑动速度小于第二速度时,可以认为用户并没有执行滑动手势,也就不用启动应用特效素材的步骤。
在一种优选的实施方案中,在所述对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换的步骤之后,包括:判断所述手势动作的滑动方向;若所述滑动方向为远离手指在所述屏幕上的滑动起点的正向时,添加新的特效素材;若所述滑动方向为朝向手指在所述屏幕上的滑动起点的反向时,恢复上一个特效素材。
通过本实施例提供的方案,通过对滑动方向的识别,给用户提供回溯的操作,这样用户可以在多个特效素材中自由地选择更喜欢的特效素材,而不会为滑过喜欢的特效素材而DD201765I-DIV
担心,增强用户体验。
在一种优选的实施方案中,所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤,包括:根据所述手势动作的滑动信息,在所述手势动作在所述屏幕上的滑动起点处随着用户的滑动方向拉出控制面板,所述控制面板上防止多个特效素材;将所述特效素材应用于所述屏幕上。
通过本实施例提供的方案,给用户提供了具有选择性的控制面板,在进行特效素材替换的时候,用户的视觉体验更佳,能够选择出更符合用户需求的特效素材。
在一种优选的实施方案中,在所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤之前,包括:检测每个所述特效素材的使用频率,根据使用频率由多到少对所述特效素材的呈现顺序进行排序。
通过本实施例提供的方案,能够根据用户习惯,定制用户常用特效素材的列表顺序,从而在用户每次使用时能够更加快速地添加特效素材至屏幕的背景中,使用户的使用更方便,体验更好。
在一种优选的实施方案中,所述特效素材的素材数量小于10。
通过本实施例提供的方案,为特效素材的备用库设定素材数量的上限,这些特效素材在划动时循环出现,避免由于特效素材太多而导致用户滑动后很难恢复到原始状态。
第二方面,本申请实施例提供了一种视频特效添加装置,所述装置包括:信息获取模块,用于捕捉用户的手势动作,获取所述手势动作的滑动信息;特效应用模块,用于根据所述手势动作的滑动信息,将特效素材应用于屏幕上。
通过本实施例提供的方案,有别于现有技术中用户在视频通话过程中开启特效需要至少两次点击的操作而导致的交互过程繁琐的问题,本实施例提供的方案通过使用信息获取模块和特效应用模块对用户的手势动作的滑动信息进行捕捉和处理,能够达到用户的手指滑动到哪里特效就加到哪里的效果。
在一种优选的实施方案中,所述信息获取模块包括:记录单元,用于实时捕捉和记录用户的手指在所述屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;计算单元,用于根据手指的所述起点坐标信息和所述终点坐标信息,判断手指的滑动方向以及滑动速度;判断单元,用于根据手指的滑动方向,判断用户所采用的滑动手势。
通过本实施例提供的方案,记录单元用于记录用户的手指在屏幕上滑动时产生的滑动信息,计算单元通过用户滑动时手指的滑动起点和滑动终点的坐标,来确定在屏幕上添加特效素材的区域,判断单元在用户使用不同的滑动手势时分别对用户的手指的滑动轨迹进行判断,以便满足实时添加特效素材的需求。
在一种优选的实施方案中,所述特效应用模块包括:分割单元,用于根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域;应用单元,用于对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换。
通过本实施例提供的方案,分割单元先计算用户的手指滑过的区域大小,进行屏幕分割,将屏幕分割为手指滑过的第一区域和未滑过的第二区域,应用单元先进行人像分割,再对第一区域的背景进行特效素材的替换,实现了实时捕捉用户的滑动手势、实时计算用户的手指滑过的区域、实时替换用户的手指滑过的区域的背景的功能。
第三方面,本申请实施例提供了一种终端设备,包括如第二方面所述的视频特效添加装置。
第四方面,本申请实施例提供了一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,如第一方面所述的方法被执行。
与现有技术相比,本技术方案至少具有如下有益效果:
本申请实施例所公开的视频特效添加方法、装置及终端设备,用手势动作替代原有通过按键点击的方式开启特效,能够减少用户操作的复杂度,在视频通话来电时快速开启特效。能够根据用户手指滑过的区域面积或屏幕占比,做区域性的人像分割以及背景替换或虚化,提升产品的趣味性、可玩性和交互性。还能够在做人像分割之前,对原始图像进行下采样处理,从而大幅度降低人像分割的计算和功耗开销,从而允许需要大计算量的深度学习人像分割模型算法能够运行在算力和功耗受限的移动终端上,满足视频播放的帧率要求。
【附图说明】
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例1所提供的终端设备的结构示意图;
图2是本申请实施例2所提供的视频特效添加方法的步骤示意图;
图3是本申请实施例2所提供的视频特效添加方法中步骤Step100的步骤示意图;
图4a是本申请实施例2所提供的视频特效添加方法中步骤Step100中采用边滑动手势时的直角坐标系;
图4b本申请实施例2所提供的视频特效添加方法中步骤Step100中采用边滑动手势时的操作原理图;
图5a是本申请实施例2所提供的视频特效添加方法中步骤Step100中采用角滑动手势时起点区域示意图;
图5b是本申请实施例2所提供的视频特效添加方法中步骤Step100中采用角滑动手势时的操作原理图;
图5c是本申请实施例2所提供的视频特效添加方法中步骤Step100中采用角滑动手势时的有效滑动范围图;
图6是本申请实施例2所提供的视频特效添加方法中步骤Step200的步骤示意图;
图7是本申请实施例2所提供的视频特效添加方法中步骤Step210的步骤示意图;
图8是本申请实施例2所提供的视频特效添加方法中步骤Step220的步骤示意图;
图9是本申请实施例2所提供的视频特效添加方法中步骤Step220中经人像分割护理后的轮廓图像的示意图;
图10是本申请实施例2所提供的视频特效添加方法中步骤Step210之前的步骤示意图;
图11是本申请实施例2所提供的视频特效添加方法中用户的手指在多次滑动时特效素材切换的操作示意图;
图12是本申请实施例2所提供的视频特效添加方法中步骤Step200的另一种实施方式的步骤示意图;
图13a和图13b是本申请实施例2所提供的视频特效添加方法中步骤Step200的另一种实施方式的操作示意图;
图14是本申请实施例2所提供的视频特效添加方法中步骤Step200之前的步骤示意图;
图15是本申请实施例3所提供的视频特效添加装置的模块示意图;
图16是本申请实施例3所提供的视频特效添加装置中信息获取模块的模块示意图;
图17是本申请实施例3所提供的视频特效添加装置中特效应用模块的模块示意图。
附图标记:
1-天线;
2-天线;
100-终端设备;110-处理器;120-外部存储器接口;121-内部存储器;130-通用串行总线接口;140-充电管理模块;141-电源管理模块;142-电池;150-移动通信模块;160-无线通信模块;170-音频模块;170A-扬声器;170B-受话器;170C-麦克风;170D-耳机接口;180-传感器模块;180A-压力传感器;180B-陀螺仪传感器;180C-气压传感器;180D-磁传感器;180E-加速度传感器;180F-距离传感器;180G-近光传感器;180H-指纹传感器;180J-温度传感器;180K-触摸传感器;180L-环境光传感器;180M-骨传导传感器;190-按键;191-马达;192-指示器;193-摄像头;194-显示屏;195-用户标识模块卡接口;
10-信息获取模块;11-记录单元;12-计算单元;13-判断单元;
20-特效应用模块;21-分割单元;22-应用单元。
【具体实施方式】
为了更好的理解本申请的技术方案,下面结合附图对本申请实施例进行详细描述。
应当明确,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
以下描述终端设备和终端设备的实现方法的实施例,其中,该终端设备可以是移动电话(又称智能终端设备)、平板电脑(tablet personal computer)、个人数字助理(personal digital assistant)、电子书阅读器(e-book reader)或虚拟现实交互设备(virtual reality interactive device)等,该终端设备可以接入各种类型的通信系统中,例如:长期演进(long term evolution,LTE)系统,未来的第五代(5th Generation,5G)系统,新一代无线接入技术(new radio access technology,NR),及未来的通信系统,如6G系统;还可以是无线局域网(wireless local area networks,WLAN)等。
为了方便说明,在以下实施例中,以智能终端设备为例进行说明。
实施例1
如图1所示的是本申请实施例1公开了一种终端设备的结构示意图,其中,终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universalserial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对终端设备100的具体限定。在本申请另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一种实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一种实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integratedcircuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronousreceiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一种实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现终端设备100的触摸功能。
I2S接口可以用于音频通信。在一种实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一种实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一种实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一种实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一种实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一种实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一种实施例中,处理器110和摄像头193通过CSI接口通信,实现终端设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现终端设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一种实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为终端设备100充电,也可以用于终端设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他终端设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端设备100的结构限定。在本申请另一些实施例中,终端设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一种有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一种无线充电的实施例中,充电管理模块140可以通过终端设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为终端设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在一种实施例中,电源管理模块141也可以设置于处理器110中。在另一种实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在终端设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一种实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一种实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一种实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在终端设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一种实施例中,终端设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得终端设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code divisionmultipleaccess,WCDMA),时分码分多址(time-division code division multipleaccess,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenithsatellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等,其中,显示屏194包括显示面板,显示屏具体可以包括折叠屏、异形屏等,显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emitting diode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organic light emitting diode的,AMOLED),柔性发光二极管(flex light-emitting diode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot light emitting diodes,QLED)等。在一种实施例中,终端设备100可以包括1个或N个显示屏194,N为大于1的正整数。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一种实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一种实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行终端设备100的各种功能应用以及数据处理。
终端设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一种实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。终端设备100可以设置至少一个麦克风170C。在另一些实施例中,终端设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动终端设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一种实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。终端设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,终端设备100根据压力传感器180A检测所述触摸操作强度。终端设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一种实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定终端设备100的运动姿态。在一种实施例中,可以通过陀螺仪传感器180B确定终端设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一种实施例中,终端设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。终端设备100可以利用磁传感器180D检测翻盖皮套的开合。在一种实施例中,当终端设备100是翻盖机时,终端设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测终端设备100在各个方向上(一般为三轴)加速度的大小。当终端设备100静止时可检测出重力的大小及方向。还可以用于识别终端设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端设备100可以通过红外或激光测量距离。在一种实施例中,拍摄场景,终端设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端设备100通过发光二极管向外发射红外光。终端设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端设备100附近有物体。当检测到不充分的反射光时,终端设备100可以确定终端设备100附近没有物体。终端设备100可以利用接近光传感器180G检测用户手持终端设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。终端设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一种实施例中,终端设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,终端设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端设备100对电池142加热,以避免低温导致终端设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,终端设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端设备100的表面,与显示屏194所处的位置不同。
在一种实施例中,由触摸传感器180K与显示屏194组成的触控屏可以位于终端设备100的侧边区域或折叠区域,用于当用户手接触触控屏时,确定用户触碰的位置以及触碰的手势;例如,用户手持终端设备时,可以通过大拇指点击触控屏上的任一位置,则触摸传感器180K可以检测到用户的点击操作,并将该点击操作传递给处理器,处理器根据该点击操作确定该点击操作用于唤醒屏幕。
骨传导传感器180M可以获取振动信号。在一种实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一种实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端设备100可以接收按键输入,产生与终端设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和终端设备100的接触和分离。终端设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。终端设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一种实施例中,终端设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在终端设备100中,不能和终端设备100分离。
当终端设备采用异形屏或折叠屏时,终端设备的触控显示屏可以包括多个触控显示区域,例如,终端设备的折叠屏在折叠状态下包括折叠区域,该折叠区域也可以实现触控响应。但是,现有技术中终端设备对特定的触控显示区域的操作局限较大,没有专门针对特定的触控显示区域的相关操作,基于此,本申请实施例提供一种手势交互方法,该手势交互方法中的终端设备的侧边区域或折叠区域存在触控响应区域,终端设备可以获取该触控响应区域的输入事件,并响应于所述输入事件,触发所述终端设备执行所述输入事件对应的操作指令,以实现对终端设备的侧边区域或折叠区域的手势操作,提升终端设备的操控体验。
本申请实施例1所公开的终端设备中,存储器用于存储计算机程序,处理器用于执行存储器中存储的计算机程序,以使终端设备执行本申请实施例2所述的方法。
实施例2
如图2所示的是本申请实施例2公开了一种视频特效添加方法,可应用于来电状态,方法包括以下步骤:
Step100:捕捉用户的手势动作,获取手势动作的滑动信息;
Step200:根据手势动作的滑动信息,将特效素材应用于屏幕上。
本实施例的视频特效添加方法,有别于现有技术中用户在视频通话过程中开启特效需要至少两次点击的操作而导致的交互过程繁琐的问题,本实施例提供的方案通过对用户的手势动作的滑动信息进行捕捉和处理,能够达到用户的手指滑动到哪里特效就加到哪里的效果。
如图3所示,在本实施例的视频特效添加方法中,在步骤Step100:捕捉用户的手势动作,获取手势动作的滑动信息中,包括:
Step110:实时捕捉和记录用户的手指在屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;
Step120:根据手指的起点坐标信息和终点坐标信息,判断手指的滑动方向以及滑动速度;
Step130:根据手指的滑动方向,判断用户所采用的滑动手势。
其中,滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
本实施例的视频特效添加方法,用户滑动时手指滑过屏幕会留下滑动信息,滑动起点的起点坐标信息和滑动终点的终点坐标信息提供了判断滑动手势、滑动方向和滑动速度的依据,滑动手势提供用户的手指在屏幕上滑动的方式,滑动方向提供用户的手指在屏幕上滑动的路径,滑动速度提供用户的手指在屏幕上滑动的快慢,综合这些滑动信息就能够准确得知屏幕上需要替换特效素材的区域。
在本实施例的视频特效添加方法中,用户的滑动手势分为边滑动手势和角滑动手势,边滑动手势为从手机的四条边任意开始向屏幕中心横向或纵向滑动;角滑动手势以角向屏幕中心滑动为主。
当滑动手势为边滑动手势时,执行以下步骤:
Step140:根据手指的起点坐标信息和终点坐标信息,判断手指在屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及滑动速度V与预设的最小速度Vmin的大小关系;
当D>Dmin且V>Vmin时,执行步骤Step180。
以从屏幕侧边向中心右滑为例。判断手指在屏幕上的坐标位移|Xs-Xe|与预设的最小距离Dmin的大小关系,以及滑动速度Vx与预设的最小速度Vmin的大小关系;
当|Xs-Xe|>Dmin且Vx>Vmin时,则判断为有效滑动。
其核心思路为:实时捕捉和记录用户手指在屏幕中二维坐标轴的坐标位置(x,y)的运动轨迹和速度(如图4a至图4b所示)。
其判断条件为:如果滑动起点横坐标Xs为0(优选地可以预留10个像素的容错空间,容错空间的具体数值根据实际需求而定),且纵坐标Ys为屏幕中间点范围(纵轴长度最大Ymax+200个像素);滑动终点的横坐标Xe为大于Xs,坐标位移|Xs-Xe|大于Dmin(优选地可根据应用场景、用户习惯、屏幕灵敏度等具体裁定,参考取值为100个像素),且移动速度Vx大于Vmin(参考取值200像素/秒)。
上述判定过程为判断图4a至图4b中所示的手指横向拉动动作;基于上述思路可拓展实现获知用户横向拉动的区域面积,从而便于执行后续应用特效素材步骤。
需要注意的是,在安卓手机上该滑动手势动作可能是系统默认的Home键(起始键)功能,因此在该场景下要注意系统级手势监听捕捉。
同理可得,若手指从屏幕顶端向下滑,则坐标位移为|Ys-Ye|,滑动速度为Vy,余下步骤代入上文所述的条件和步骤即可。
本实施例的视频特效添加方法,预先设定最小距离Dmin和最小速度Vmin作为判断用户的手指是否有效滑动的标准,通过计算手指在屏幕上的坐标位移D和滑动速度V,来判断用户的手指是否真的在进行手势操作,避免发生错误相应用户在屏幕上的误触碰而错误添加特效素材的问题。
以屏幕右上角向屏幕中心区域移动为例。当滑动手势为边滑动手势时,执行以下步骤:
Step150:预设起点区域;其中,所述起点区域的横坐标的最大值为Xmax,横坐标的最大值为Ymax;
Step160:根据手指的起点坐标信息,判断手指的滑动起点是否落在起点区域内;
若手指的滑动起点的横坐标Xs<Xmax且纵坐标Ys<Ymax,则判断为手指的滑动起点位于预设的起点区域内;从而执行步骤Step170。
Step170:根据手指的起点坐标信息和所述终点坐标信息,判断手指在屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及滑动速度V与预设的最小速度Vmin的大小关系;
当D>Dmin、V>Vmin且所述滑动起点与所述滑动终点的连线的斜率k的范围满足0.268<|k|<3.73或0.268<|k-1|<3.73时,执行步骤Step180。
Step180:启动所述特效素材。
如图5a至图5c所示,用户的手指在执行角滑动手势时,其角向心移动动作识别触发条件为起点O必须在图5b的方框形状的起点区域内,50为参考值,可根据实际需要或者屏幕灵敏度适当调整起点区域大小。
角向心滑动动作识别是基于图4a至图4c所示的边滑动手势的判断条件做适当优化后得到的判断规则,以图5c中点A为终点为例,A坐标设为(X(A),Y(A)),起点是(X(O),Y(O))。判断规则如下:
①坐标位移超过Dmin(参考值100个像素)即
②坐标移动速度超过Vmin(参考取值200像素/秒);
③直线AO的斜率k范围在(0.268,3.73),即对应移动偏移的角度在15°到75°
之间,如图4c中OAB三角形区域所示。(三角区范围可根据实际需求适当调整)。
滑动区域识别(即等腰直角三角形区域识别):基于手指滑动的滑动终点进行如下处理:以图5c中点A为例,设A为用户滑动的滑动终点,过点A做一条斜率为-1的直线,则该直线与坐标轴的所围成的三角形区域即为滑动区域,因为该直线斜率为-1,因此与坐标轴的内角均为45°,如图5c所示,等腰直角三角形,为实现图中三角形区域的背景替换做好准备。
图5c仅例举了终端设备的一个角的情形,其他三个角处的判断规则可以根据图5c所例举的情形推断而得,最终得出判断规则为0.268<|k|<3.73或0.268<|k-1|<3.73。
本实施例的视频特效添加方法,预先设定起点区域和滑动区域,起点区域作为判定用户的手指是否能够触发滑动手势识别的判断条件,滑动区域作为判定用户的手指是否能够触发应用特效素材的判断条件,设定两个判断条件从而准确地判断用户的手指在屏幕的角落处是否存在滑动手势以及手指所滑动的区域大小,在屏幕的四个角落处设置的滑动区域,其边缘的倾角在15°到75°的范围内,用户的手指在执行角滑动手势时,就会覆盖滑动区域的部分或者全部,能够满足角滑动手势的判断要求,进而能够适应性地应用特效素材。
如图6所示,在本实施例的视频特效添加方法中,在步骤Step200:根据手势动作的滑动信息,将特效素材应用于屏幕上中,包括:
Step210:根据手势动作的滑动信息,将屏幕分割成第一区域和第二区域;
Step220:对屏幕中显示的人像进行人像分割,对屏幕中背景位于第一区域中的部分进行特效素材替换。
其中,第一区域为与手势动作的滑动起点与滑动终点的连线相垂直且穿过滑动终点的分割线所扫过的屏幕的区域,第二区域为屏幕上除第一区域外的区域;滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
本实施例的视频特效添加方法,先进行人像分割和屏幕分割,将人像提取出,将屏幕分割为手指滑过的第一区域和未滑过的第二区域,并仅对第一区域的背景进行特效素材的替换。该方法能够实时捕捉手指在滑动中的位置,从而确定所需要替换背景的第一区域。在替换背景时,人像所占区域依旧显示人像,不会被替换成背景,形成前方人像不变,后方背景变化的效果,从而实现了实时捕捉用户的滑动手势、实时计算用户的手指滑过的区域、实时替换用户的手指滑过的区域的背景的功能。
如图7所示,在本实施例的视频特效添加方法中,步骤Step210:根据手势动作的滑动信息,将屏幕分割成第一区域和第二区域,包括:
Step211:根据手势动作的滑动起点的起点坐标信息和滑动终点的终点坐标信息,创建分割线;
Step212:根据分割线和滑动方向,将分割线沿滑动方向扫过的屏幕的区域分割为第一区域。
本实施例的视频特效添加方法,先计算用户的手指滑过的区域大小,再进行屏幕分割,将屏幕分割为手指滑过的第一区域和未滑过的第二区域,并仅对第一区域的背景进行特效素材的替换,实现了实时捕捉用户的滑动手势、实时计算用户的手指滑过的区域、实时替换用户的手指滑过的区域的背景的功能。
如图8所示,在本实施例的视频特效添加方法中,步骤Step220:对屏幕中显示的人像进行人像分割,对屏幕中背景位于第一区域中的部分进行特效素材替换,包括:
Step221:对人像的原始图像使用双线性插值算法进行下采样,得到下采样图像;
Step222:计算下采样图像中的人物的轮廓(人像Mask),并对人物的轮廓使用双线性插值算法进行上采样,得到原始图像的轮廓;
Step223:基于原始图像的轮廓从原始图像中将人像分割出来,得到第一图层;
Step224:将背景位于第一区域中的部分进行特效素材替换,得到第二图层;
Step225:将第一图层与第二图层进行叠加。
具体来说,在本实施例所公开的方法中,以google android(谷歌安卓)标准camera(摄像头)API2.0引擎为例,可使用其他camera引擎输出连续的图像帧数据,帧数据格式可为YUV-NV21或者RGB等通用格式。先对原始图像使用双线性插值算法进行下采样,例如将原始1920x 1080分辨率图像下采样为320x 180分辨率的图像,从而得到下采样图像;在对下采样后的下采样图像进行人像分割处理,此处人像分割使用的深度学习模型在本发明实施例中不做限制,可采用CNN、FCN/FCN+/UNet等等常见的模型。人像分割处理后会输出具有人物的轮廓(Mask)的数据,其本质是一帧图像,如图9所示,但需注意该轮廓的分辨率暂为320x180,在此处通过处理低分辨率的轮廓,大幅度降低人像分割的计算复杂度和功耗开销。将输出的轮廓使用双线性插值算法进行上采样至原始图像的分辨率(本实施例中为1920x1080),由于是对黑白图像进行上采样,因此其上采样插值的图像损失率能够降低到最低。基于上述的轮廓的数据,将人像从原始图像中“抠出来”,得到第一图层,再与经过背景的特效素材替换的第二图层在GPU上进行图层叠加渲染,最终得到背景替换后的效果图。
本实施例的视频特效添加方法,采用双线性插值法逐帧对原始图像下采样,使分辨率等比例减少,且降低算力损耗,然后做人像分割,输出人像的轮廓,后再使用双线性插值法将轮廓上采样为原始图像的分辨率。从而大幅度降低人像分割在移动终端设备上的功耗和处理时延,满足30FPS的视频通话的帧率要求。该方法在做人像分割之前,对原始图像进行下采样处理,从而大幅度降低人像分割的计算和功耗开销,从而允许需要大计算量的深度学习人像分割模型算法能够运行在算力和功耗受限的移动终端上,满足视频播放的帧率要求。
在本实施例的视频特效添加方法中,根据第一区域的区域面积或第一区域占屏幕的屏幕占比,选择特效素材的添加等级。
本实施例的视频特效添加方法,在添加特效素材的过程中,用户可以自行选择添加特效素材的量,体现在操作应用中就是可以根据用户的手指滑过屏幕的区域大小来选择特效素材的添加等级,这样的操作方法能够满足用户更多、更复杂的特效添加需求。
在本实施例的视频特效添加方法中,手势动作每划过10%,特效素材的添加等级对应提升一级。
本实施例的视频特效添加方法,能够给用户提供更加平滑的视频特效添加体验。
在实际应用中,可以上文图4a至图4c所描述的边滑动手势沿屏幕的横向/纵向的捕捉方法触发美颜类算法,以其滑动区域占整个屏幕的比例作为美颜级别。以十级美颜为例:比如从左侧或者顶部开始滑,滑动区域占比为10%时,开启一级美颜,全部滑到右侧时开启十级美颜,以此类推。
由于美颜为级别实现类的特效,因此建议使用边滑动手势捕捉触发方法,但如有业务需求或产品设计等因素,亦可使用角滑动手势捕捉方法触发,两者实现思路类似。
在本实施例的视频特效添加方法中,当第一区域的屏幕占比大于50%且所述手势动作的滑动终点的终点坐标信息不再变化时,将屏幕的整个背景进行特效素材替换。
本实施例的视频特效添加方法,由于用户在手指滑动大半的情况下往往就代表着有全部替换背景的需求,故采用本优选实施方案的方法能够便于用户操作,增强用户体验。
如图10所示,在本实施例的视频特效添加方法中,在步骤Step210:根据手势动作的滑动信息,将屏幕分割成第一区域和第二区域的步骤之前,包括:
Step201:根据滑动速度判断手势动作的滑动是否有效;
若滑动速度大于第一速度,则执行步骤Step202:将屏幕的背景进行整体特效素材替换;
若滑动速度小于第二速度,则不执行步骤Step200;其中,第一速度大于第二速度。
本实施例的视频特效添加方法,预设两个用于判断滑动速度的判断条件,结合用户滑动速度判断本次滑动是否生效,如果滑动速度很快,滑动速度大于第一速度时,可以认为用户需要对整个背景进行替换,则开启背景的完整替换或虚化,滑动速度小于第二速度时,可以认为用户并没有执行滑动手势,也就不用启动应用特效素材的步骤。
参见图6,在本实施例的视频特效添加方法中,在步骤Step220:对屏幕中显示的人像进行人像分割,对屏幕中背景位于第一区域中的部分进行特效素材替换之后,包括:
Step230:判断手势动作的滑动方向;
若滑动方向为远离手指在屏幕上的滑动起点的正向时,执行步骤Step240:添加新的特效素材;
若滑动方向为朝向手指在屏幕上的滑动起点的反向时,执行步骤Step250:恢复上一个特效素材。
如图11所示,用户的手指在执行手势动作的时候,可以通过多次滑动对特效素材进行切换,即在前文所述的规则基础上,再次滑动手指,就能更换为下一个特效素材。
本实施例的视频特效添加方法,通过对滑动方向的识别,给用户提供回溯的操作,可以将屏幕的背景替换/虚化进行取消,比如手指向左滑,开启背景替换/虚化;手指再向左滑,换另一个背景素材;手指向右滑(即反向操作),恢复上一个背景素材/真实背景。这样用户可以在多个特效素材中自由地选择更喜欢的特效素材,而不会为滑过喜欢的特效素材而担心,增强用户体验。
如图12、图13a和图13b所示,在本实施例的视频特效添加方法中,步骤Step200根据手势动作的滑动信息,将特效素材应用于屏幕上,包括:
Step210’:根据手势动作的滑动信息,在手势动作在屏幕上的滑动起点处随着用户的滑动方向拉出控制面板,控制面板上防止多个特效素材;
Step220’:将特效素材应用于屏幕上。
本实施例的视频特效添加方法,目的是为分区域背景替换/虚化的实现,其不局限上述边滑动手势和角滑动手势的捕捉方法来触发,本方法的核心在于使用滑动手势快速开启特效,可根据边滑动/角滑动的滑动区域面积作为背景替换/虚化的范围,给用户提供了具有选择性的控制面板,在进行特效素材替换的时候,用户的视觉体验更佳,能够选择出更符合用户需求的特效素材。
如图14所示,在本实施例的视频特效添加方法中,在步骤Step200:根据手势动作的滑动信息,将特效素材应用于屏幕上之前,还包括:
Step200’:检测每个特效素材的使用频率,根据使用频率由多到少对特效素材的呈现顺序进行排序。
本实施例的视频特效添加方法,能够根据用户习惯,定制用户常用特效素材的列表顺序,例如优先显示上次使用的特效素材,或根据使用频率从多到少排序,从而在用户每次使用时能够更加快速地添加特效素材至屏幕的背景中,使用户的使用更方便,体验更好。
在本实施例的视频特效添加方法中,特效素材的素材数量小于10。
本实施例的视频特效添加方法,为特效素材的备用库设定素材数量的上限,这些特效素材在划动时循环出现,避免由于特效素材太多而导致用户滑动后很难恢复到原始状态。
本实施例所公开的视频特效添加方法,用滑动手势替代原有通过按键点击的方式开启特效的交互设计。根据用户的手指在屏幕上滑过的区域的区域面积或屏幕占比,做区域性的人像分割和背景替换/虚化,实现区域性背景替换/虚化。使得在视频通话中,用户滑动进行区域性背景替换时,可根据用户手指在屏幕上的位置和滑动手势的角度划分区域,不传输已被替换掉的区域的部分视频流,从而节省视频流的数据传输。可以以用户手指滑过的区域面积/屏幕占比作为美颜级别的调整。也可以以完整的用户手指滑动动作为背景替换的素材、美妆类素材、3D-Animoji或贴纸素材的一键切换。此外本方法还使用了角向心滑动手势的捕捉和分析方法。
实施例3
如图15所示的是本申请实施例3所提供的一种视频特效添加装置,装置包括:
信息获取模块10,用于捕捉用户的手势动作,获取手势动作的滑动信息;
特效应用模块20,用于根据手势动作的滑动信息,将特效素材应用于手势动作在屏幕上滑过的区域中。
本实施例的视频特效添加装置,有别于现有技术中用户在视频通话过程中开启特效需要至少两次点击的操作而导致的交互过程繁琐的问题,本实施例提供的方案通过使用信息获取模块10和特效应用模块20对用户的手势动作的滑动信息进行捕捉和处理,能够达到用户的手指滑动到哪里特效就加到哪里的效果。
如图16所示,在本实施例的视频特效添加装置中,信息获取模块10包括:
记录单元11,用于实时捕捉和记录用户的手指在屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;
计算单元12,用于根据手指的起点坐标信息和终点坐标信息,判断手指的滑动方向以及滑动速度;
判断单元13,用于根据手指的滑动方向,判断用户所采用的滑动手势。
本实施例的视频特效添加装置,记录单元11用于记录用户的手指在屏幕上滑动时产生的滑动信息,计算单元12通过用户滑动时手指的滑动起点和滑动终点的坐标,来确定在屏幕上添加特效素材的区域,判断单元13在用户使用不同的滑动手势时分别对用户的手指的滑动轨迹进行判断,以便满足实时添加特效素材的需求。
如图17所示,在本实施例的视频特效添加装置中,特效应用模块2包括:
分割单元21,用于根据手势动作的滑动信息,将屏幕分割成第一区域和第二区域;
应用单元22,用于对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换。
本实施例的视频特效添加装置,分割单元21先计算用户的手指滑过的区域大小,进行屏幕分割,将屏幕分割为手指滑过的第一区域和未滑过的第二区域,应用单元22先进行人像分割,再对第一区域的背景进行特效素材的替换,实现了实时捕捉用户的滑动手势、实时计算用户的手指滑过的区域、实时替换用户的手指滑过的区域的背景的功能。
实施例4
本申请实施例4提供了一种终端设备,包括如本申请实施例2所述的视频特效添加装置。
实施例5
本申请实施例5提供了一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,如本申请实施例1所述的方法被执行。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,高密度数字视频光盘(Digital Video Disc,DVD))、或者半导体介质(例如,固态硬盘(Solid State Disk,SSD))等。
本申请实施例所公开的视频特效添加方法、装置及终端设备,用手势动作替代原有通过按键点击的方式开启特效,能够减少用户操作的复杂度,在视频通话来电时快速开启特效。能够根据用户手指滑过的区域面积或屏幕占比,做区域性的人像分割以及背景替换或虚化,提升产品的趣味性、可玩性和交互性。还能够在做人像分割之前,对原始图像进行下采样处理,从而大幅度降低人像分割的计算和功耗开销,从而允许需要大计算量的深度学习人像分割模型算法能够运行在算力和功耗受限的移动终端上,满足视频播放的帧率要求。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (20)
1.一种视频特效添加方法,其特征在于,所述方法包括以下步骤:
捕捉用户的手势动作,获取所述手势动作的滑动信息;
根据所述手势动作的滑动信息,将特效素材应用于屏幕上。
2.根据权利要求1所述的视频特效添加方法,其特征在于,
所述捕捉用户的手势动作,获取所述手势动作的滑动信息的步骤,包括:
实时捕捉和记录用户的手指在所述屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;
根据手指的所述起点坐标信息和所述终点坐标信息,判断手指的滑动方向以及滑动速度;
根据手指的滑动方向,判断用户所采用的滑动手势;
其中,所述滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
3.根据权利要求2所述的视频特效添加方法,其特征在于,
当所述滑动手势为边滑动手势时,执行以下步骤:
根据手指的所述起点坐标信息和所述终点坐标信息,判断手指在所述屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及所述滑动速度V与预设的最小速度Vmin的大小关系;
当D>Dmin且V>Vmin时,启动所述特效素材。
4.根据权利要求2所述的视频特效添加方法,其特征在于,
当所述滑动手势为角滑动手势时,执行以下步骤:
预设起点区域;其中,所述起点区域的横坐标的最大值为Xmax,横坐标的最大值为Ymax;
根据手指的所述起点坐标信息,判断手指的滑动起点是否落在起点区域内;
若手指的滑动起点的横坐标Xs<Xmax且纵坐标Ys<Ymax,则判断为手指的滑动起点位于预设的起点区域内;
根据手指的所述起点坐标信息和所述终点坐标信息,判断手指在所述屏幕上的坐标位移D与预设的最小距离Dmin的大小关系,以及所述滑动速度V与预设的最小速度Vmin的大小关系;
当D>Dmin、V>Vmin且所述滑动起点与所述滑动终点的连线的斜率k的范围满足0.268<|k|<3.73或0.268<|k-1|<3.73时,启动所述特效素材。
5.根据权利要求1所述的视频特效添加方法,其特征在于,
所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤,包括:
根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域;
对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换;
其中,
所述第一区域为与所述手势动作的滑动起点与滑动终点的连线相垂直且穿过所述滑动终点的分割线所扫过的屏幕的区域,所述第二区域为所述屏幕上除所述第一区域外的区域;
所述滑动信息包括滑动起点的起点坐标信息、滑动终点的终点坐标信息、滑动手势、滑动方向和滑动速度。
6.根据权利要求5所述的视频特效添加方法,其特征在于,所述根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域的步骤,包括:
根据所述手势动作的滑动起点的起点坐标信息和滑动终点的终点坐标信息,创建所述分割线;
根据所述分割线和所述滑动方向,将所述分割线沿所述滑动方向扫过的所述屏幕的区域分割为所述第一区域。
7.根据权利要求5所述的视频特效添加方法,其特征在于,所述对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换的步骤,包括:
对所述人像的原始图像使用双线性插值算法进行下采样,得到下采样图像;
计算所述下采样图像中的人物的轮廓,并对所述人物的轮廓使用双线性插值算法进行上采样,得到所述原始图像的轮廓;
基于所述原始图像的轮廓从所述原始图像中将所述人像分割出来,得到第一图层;
将背景位于所述第一区域中的部分进行特效素材替换,得到第二图像;
将所述第一图像与所述第二图像进行叠加。
8.根据权利要求5所述的视频特效添加方法,其特征在于,根据所述第一区域的区域面积或所述第一区域占所述屏幕的屏幕占比,选择所述特效素材的添加等级。
9.根据权利要求8所述的视频特效添加方法,其特征在于,所述第一区域的屏幕占比每增加10%,所述特效素材的添加等级对应提升一级。
10.根据权利要求5所述的视频特效添加方法,其特征在于,当所述第一区域的屏幕占比大于50%且所述手势动作的滑动终点的终点坐标信息不再变化时,将所述屏幕的整个背景进行特效素材替换。
11.根据权利要求5所述的视频特效添加方法,其特征在于,
在所述根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域的步骤之前,包括:
根据所述滑动速度判断所述手势动作的滑动是否有效;
若所述滑动速度大于第一速度,则将所述屏幕的背景进行整体特效素材替换;
若所述滑动速度小于第二速度,则不执行根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤;
其中,所述第一速度大于所述第二速度。
12.根据权利要求5所述的视频特效添加方法,其特征在于,
在所述对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换的步骤之后,包括:
判断所述手势动作的滑动方向;
若所述滑动方向为远离手指在所述屏幕上的滑动起点的正向时,添加新的特效素材;
若所述滑动方向为朝向手指在所述屏幕上的滑动起点的反向时,恢复上一个特效素材。
13.根据权利要求1所述的视频特效添加方法,其特征在于,所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤,包括:
根据所述手势动作的滑动信息,在所述手势动作在所述屏幕上的滑动起点处随着用户的滑动方向拉出控制面板,所述控制面板上防止多个特效素材;
将所述特效素材应用于所述屏幕上。
14.根据权利要求1所述的视频特效添加方法,其特征在于,在所述根据所述手势动作的滑动信息,将特效素材应用于屏幕上的步骤之前,包括:
检测每个所述特效素材的使用频率,根据使用频率由多到少对所述特效素材的呈现顺序进行排序。
15.根据权利要求1所述的视频特效添加方法,其特征在于,所述特效素材的素材数量小于10。
16.一种视频特效添加装置,其特征在于,所述装置包括:
信息获取模块,用于捕捉用户的手势动作,获取所述手势动作的滑动信息;
特效应用模块,用于根据所述手势动作的滑动信息,将特效素材应用于屏幕上。
17.根据权利要求16所述的视频特效添加装置,其特征在于,所述信息获取模块包括:
记录单元,用于实时捕捉和记录用户的手指在所述屏幕的二维xy坐标系中滑动起点的起点坐标信息和滑动终点的终点坐标信息;
DD201765I-DIV
计算单元,用于根据手指的所述起点坐标信息和所述终点坐标信息,判断手指的滑动方向以及滑动速度;
判断单元,用于根据手指的滑动方向,判断用户所采用的滑动手势。
18.根据权利要求16所述的视频特效添加装置,其特征在于,所述特效应用模块包括:
分割单元,用于根据所述手势动作的滑动信息,将所述屏幕分割成第一区域和第二区域;
应用单元,用于对所述屏幕中显示的人像进行人像分割,对所述屏幕中背景位于所述第一区域中的部分进行特效素材替换。
19.一种终端设备,其特征在于,包括如权利要求16至18任一项所述的视频特效添加装置。
20.一种计算机可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,如权利要求1至15中任一项所述的方法被执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310356438.2A CN116437034A (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011021330.0A CN114257775B (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
CN202310356438.2A CN116437034A (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011021330.0A Division CN114257775B (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116437034A true CN116437034A (zh) | 2023-07-14 |
Family
ID=80790250
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011021330.0A Active CN114257775B (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
CN202310356438.2A Pending CN116437034A (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011021330.0A Active CN114257775B (zh) | 2020-09-25 | 2020-09-25 | 视频特效添加方法、装置及终端设备 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN114257775B (zh) |
WO (1) | WO2022062985A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115480651B (zh) * | 2022-11-04 | 2023-05-12 | 广州微咔世纪信息科技有限公司 | 具有临摹内容分析功能电子画板的控制方法及电子画板 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI540461B (zh) * | 2011-12-05 | 2016-07-01 | 緯創資通股份有限公司 | 手勢輸入的方法及系統 |
CN104780093B (zh) * | 2014-01-15 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 即时通讯过程中的表情信息处理方法及装置 |
CN104866755B (zh) * | 2015-06-11 | 2018-03-30 | 北京金山安全软件有限公司 | 应用程序解锁界面背景图片的设置方法、装置及电子设备 |
CN105892898A (zh) * | 2015-11-20 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 通知中心呼出方法、装置及系统 |
CN105808145A (zh) * | 2016-03-28 | 2016-07-27 | 努比亚技术有限公司 | 一种实现图像处理的方法及终端 |
CN106020664B (zh) * | 2016-05-11 | 2019-07-09 | 广东合晟网络科技有限公司 | 图像处理方法 |
CN106385591B (zh) * | 2016-10-17 | 2020-05-15 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN106951090B (zh) * | 2017-03-29 | 2021-03-30 | 北京小米移动软件有限公司 | 图片处理方法及装置 |
CN107340964A (zh) * | 2017-06-02 | 2017-11-10 | 武汉斗鱼网络科技有限公司 | 一种视图的动画效果实现方法及装置 |
CN109391792B (zh) * | 2017-08-03 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 视频通信的方法、装置、终端及计算机可读存储介质 |
CN108022279B (zh) * | 2017-11-30 | 2021-07-06 | 广州市百果园信息技术有限公司 | 视频特效添加方法、装置及智能移动终端 |
CN107948667B (zh) * | 2017-12-05 | 2020-06-30 | 广州酷狗计算机科技有限公司 | 在直播视频中添加显示特效的方法和装置 |
CN108984094B (zh) * | 2018-06-29 | 2019-08-27 | 北京微播视界科技有限公司 | 切换全局特效的方法、装置、终端设备及存储介质 |
CN109089059A (zh) * | 2018-10-19 | 2018-12-25 | 北京微播视界科技有限公司 | 视频生成的方法、装置、电子设备及计算机存储介质 |
US10388322B1 (en) * | 2018-10-29 | 2019-08-20 | Henry M. Pena | Real time video special effects system and method |
US11218646B2 (en) * | 2018-10-29 | 2022-01-04 | Henry M. Pena | Real time video special effects system and method |
CN110944230B (zh) * | 2019-11-21 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 视频特效的添加方法、装置、电子设备及存储介质 |
CN111050203B (zh) * | 2019-12-06 | 2022-06-14 | 腾讯科技(深圳)有限公司 | 一种视频处理方法、装置、视频处理设备及存储介质 |
-
2020
- 2020-09-25 CN CN202011021330.0A patent/CN114257775B/zh active Active
- 2020-09-25 CN CN202310356438.2A patent/CN116437034A/zh active Pending
-
2021
- 2021-09-15 WO PCT/CN2021/118451 patent/WO2022062985A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN114257775B (zh) | 2023-04-07 |
CN114257775A (zh) | 2022-03-29 |
WO2022062985A1 (zh) | 2022-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110445978B (zh) | 一种拍摄方法及设备 | |
WO2021213120A1 (zh) | 投屏方法、装置和电子设备 | |
CN110045908B (zh) | 一种控制方法和电子设备 | |
WO2021052214A1 (zh) | 一种手势交互方法、装置及终端设备 | |
CN111010506A (zh) | 一种拍摄方法及电子设备 | |
CN112712470B (zh) | 一种图像增强方法及装置 | |
WO2021208723A1 (zh) | 全屏显示方法、装置和电子设备 | |
CN113170037B (zh) | 一种拍摄长曝光图像的方法和电子设备 | |
CN114140365B (zh) | 基于事件帧的特征点匹配方法及电子设备 | |
CN113934330B (zh) | 一种截屏方法及电子设备 | |
WO2021180089A1 (zh) | 界面切换方法、装置和电子设备 | |
CN118051111A (zh) | 一种高能效的显示处理方法及设备 | |
CN111385514B (zh) | 人像处理方法和装置以及终端 | |
CN112085647B (zh) | 一种人脸校正方法及电子设备 | |
CN112150499B (zh) | 图像处理方法及相关装置 | |
CN114089932B (zh) | 多屏显示方法、装置、终端设备及存储介质 | |
CN110968247B (zh) | 一种电子设备操控方法及电子设备 | |
CN114866860B (zh) | 一种播放视频的方法及电子设备 | |
CN113747058B (zh) | 基于多摄像头的图像内容屏蔽方法和装置 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
WO2022062985A1 (zh) | 视频特效添加方法、装置及终端设备 | |
CN114089902A (zh) | 手势交互方法、装置及终端设备 | |
CN112449101A (zh) | 一种拍摄方法及电子设备 | |
WO2022033344A1 (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN116719569B (zh) | 启动应用的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |