CN111432155A - 视频通话方法、电子设备及计算机可读存储介质 - Google Patents

视频通话方法、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN111432155A
CN111432155A CN202010239784.9A CN202010239784A CN111432155A CN 111432155 A CN111432155 A CN 111432155A CN 202010239784 A CN202010239784 A CN 202010239784A CN 111432155 A CN111432155 A CN 111432155A
Authority
CN
China
Prior art keywords
target
video
camera
target acquisition
video picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010239784.9A
Other languages
English (en)
Other versions
CN111432155B (zh
Inventor
张希琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202010239784.9A priority Critical patent/CN111432155B/zh
Publication of CN111432155A publication Critical patent/CN111432155A/zh
Application granted granted Critical
Publication of CN111432155B publication Critical patent/CN111432155B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Abstract

本发明实施例提供一种视频通话方法、电子设备及计算机可读存储介质,该方法包括:在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,目标采集位置为第一视频画面中人脸区域的目标特征位置;通过目标采集位置上的摄像头采集第二视频画面;将第二视频画面传输至目标设备,其中,目标设备为视频通话发起方或视频通话接收方的电子设备。在本发明实施例中,在视频通话时,通过确定显示屏上第一视频画面中的目标采集位置,可通过与该目标采集位置对应的摄像头采集第二视频画面,从而,当通话的对方用户看到这样的视频画面时,画面中用户视线偏高或偏低的偏差便得到消减,可以削弱视频通话双方的空间距离感。

Description

视频通话方法、电子设备及计算机可读存储介质
技术领域
本发明涉及通信技术领域,尤其涉及一种视频通话方法、电子设备及计算机可读存储介质。
背景技术
在通信行业中,在日常交流、商务会议等各种场合使用视频通话已经越来越普遍。
由于手机、平板电脑等电子设备的结构限制,在视频通话时存在视线偏差。以摄像头设置在电子设备刘海位置为例,在视频通话的发起方与接收方进行通话时,当一方注视摄像头的位置时,另一方所看到的视频画面中对方视线偏高,当一方注视显示屏画面的位置时,另一方所看到的视频画面中对方视线偏低。
因而,现有的视频通话方法中,视频通话的双方之间存在视线偏差的问题。
发明内容
本发明实施例提供一种视频通话方法、电子设备及计算机可读存储介质,能够解决现有视频通话的双方之间存在视线偏差的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供一种视频通话方法,应用于电子设备,所述方法包括:
在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置;
通过所述目标采集位置上的摄像头采集第二视频画面;
将所述第二视频画面传输至目标设备,所述目标设备为视频通话发起方或通话接收方的电子设备。
第二方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
确定模块,用于在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置;
采集模块,用于通过所述目标采集位置上的摄像头采集第二视频画面;
传输模块,用于将所述第二视频画面传输至目标设备,所述目标用户为视频通话发起方或视频通话接收方的电子设备。
第三方面,本发明实施例还提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面所述的视频通话方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的视频通话方法的步骤。
在本发明实施例中,在视频通话时,通过确定显示屏上第一视频画面中的目标采集位置,可通过与该目标采集位置对应的摄像头采集摄像头前方用户的第二视频画面,从而,当视频通话的对方用户看到这样的第二视频画面时,画面中用户视线偏高或偏低的偏差便得到消减,可以削弱视频通话双方的空间距离感,提升视频通话双方的物理真实感,改善视频通话的使用体验。
附图说明
图1表示本发明实施例提供的一种视频通话方法的流程图;
图2表示本发明实施例的摄像头阵列方案中一种目标采集位置的示意图;
图3表示本发明实施例的摄像头阵列方案中另一种目标采集位置的示意图;
图4表示本发明实施例的移动式摄像头的结构示意图;
图5表示本发明实施例的移动式摄像头移动后的结构示意图;
图6表示本发明实施例提供的一种视频通话界面的示意图;
图7表示本发明实施例提供的第一视频画面中双眼位置的示意图;
图8表示本发明实施例提供的目标采集位置的示意图;
图9表示本发明实施例提供的一种电子设备的结构框图;
图10表示本发明实施例提供的另一种电子设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本发明的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
参见图1,示出了本发明实施例提供的一种视频通话方法的流程图,该方法的步骤如下:
步骤101,在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置。
用户在使用手机、平板电脑、智能手表等带有摄像头的电子设备进行视频通话时,可以通过隐藏设置在屏幕下方的摄像头采集视频画面。需要说明的是,基于屏下指纹识别技术和屏下摄像头技术的发展进步,这里的屏幕下方的摄像头即就是屏下摄像头技术,指将摄像头设置于屏幕显示模组远离显示面的内侧,同时,光线还可透过显示模组进入摄像头中形成图像。具体的,如图2或图3所示,可以采用多个摄像头组成屏下摄像头阵列,或者如图4或图5所示设置驱动机构带动单个摄像头在屏幕下方运动。本发明实施例对屏下摄像头的数量和结构不做限制。
用户在使用电子设备进行视频通话时,可以通过触摸操作、语音操作、眼球追踪等操控方式启动具备视频聊天功能的应用程序(比如QQ、微信、钉钉等)。可以理解的是,视频通话功能也可不依赖于特定的应用程序,也可如图6所示在电子设备上执行拨号打电话操作时启用视频通话功能。当视频通话功能启用之后,在视频通话的视频界面上通常会展示通话双方的实时动态画面。可以理解的是,实际应用中,任一方用户可以通过视频界面上提供的实体按键或者虚拟按键暂停画面,使画面处于静止状态。可认为静态画面是实时画面中抽取的一帧画面。
当通话发起方与接收方在进行视频通话的过程中,由于屏下设置有摄像头,因此,在使用该电子设备进行视频通话时,可以通过隐藏在屏幕下方的摄像头采集视频画面,具体的,便需要确定在视频界面中哪个位置采集视频画面最合适,能够消减视频双方的视线偏差,该位置即目标采集位置。
例如,用户甲使用电子设备A向使用电子设备B的用户乙发起视频通话,甲为发起方,乙为接收方,在电子设备A的显示屏上会显示关于乙的第一视频画面,在电子设备B的显示屏上会显示关于甲的第二视频画面,甲乙方双通话过程中,电子设备A便可以获取第一视频画面中的目标采集位置,该目标采集位置为第一视频画面中用户乙的人脸区域的目标特征位置,目标特征位置为人脸区域上可以吸引用户视线聚焦的位置,即就是说,在视频通话过程中,视频通话的一方可以注视着另一方脸部区域的某一特征位置,该位置即为目标特征位置。目标特征位置可以为眼睛、嘴巴、鼻子、耳朵等五官特征所在的位置,或者为基于五官特征中一个或几个组合重新确定的位置,也可为人脸区域上的具有标志性的标记等,本发明实施例中对目标特征位置不做限定。可以理解的是,在社交交流中,注视对方的眼睛更容易拉近交流双方的情感距离,因而一种适宜的方法便可以是基于双方四目相对、互相注视这样的视频通话场景出发,以眼睛的双眼位置作为目标特征位置的参考,确定一个合适的目标特征位置,从而消除视频通话的视线偏差。
需要说明的是,尽管上述实施例中以发起方甲的电子设备A为例进行说明,这并不意味着该方案只能适用于视频通话发起方。接收方乙的电子设备B同样也可以获取显示屏所显示的有关甲的视频画面中的目标采集位置,相似之处均可参照上述示例,此处不再赘述。具体的,步骤101获取显示屏显示的第一视频画面的目标采集位置的方法可以参照如下步骤:
a、识别所述第一视频画面中的人脸区域。
由于第一视频画面所展示的通常不仅仅包括用户的头像,还会包括身体背后的背景。通常而言,在通话过程中,背景一般是静止不动的,头像很难保持绝对的静止。因此,可以通过opencv、dlib等开源工具提供的视觉函数库,利用其中的人工智能算法进行图像识别,采用工具箱里的人脸分类器检测出图像中的面部区域。比如,通过对画面动态元素的分析、对颜色通道进行分离处理,判断出人脸的边界,识别出表示人脸的区域,以进一步确定对应的人脸区域中的目标采集位置。可以理解的是,在本发明实施例中,该人脸区域可以是以人脸轮廓为边界的椭圆形区域,或者是上下左右四个边界围成的矩形区域,还可以通过椭圆形边框或矩形边框对人脸区域进行高亮突出标记,动态追踪人脸位置,以可视化的方式向用户展示所识别出的人脸区域大致范围。
b、确定所述人脸区域中的双眼位置。
可以理解的是,在双方进行视频通话时,各自电子设备的屏幕上会展示对方的面部图像。当通话双方互相对视时,此时视线的偏差最小,空间距离感最弱。因此,可以以视频画面中的双眼位置为参考用于确定目标采集位置。也就是说,可以通过确定双眼位置在视频画面中的坐标来确定目标采集位置。
对于双眼位置的确定,可以参照如下步骤:
b1、按照预设时间间隔从所述第一视频画面中抽取至少两帧图像。
容易理解的是,对于静态画面,可以通过图像中的特征识别较方便地确定双眼位置。然而,在视频通话时,视频画面中的面部图像通常并非绝对静止,而是处于摇动或摆动的状态。因此,为了确定动态画面中的双眼位置,可以按照预设的时间间隔从第一视频画面中抽取至少两帧图像,比如,按照1s的时间间隔先后抽取了两帧图像,分别标记为第一帧和第二帧。当抽取的帧画面数量越多,对于双眼位置的确定便更为精准。
b2、基于每张所述视频图像中的双眼位置,得到与所述双眼位置对应的点集,其中,所述点集包括左眼位置点集和右眼位置点集。
在抽取后得到每张图像中,都存在双眼位置,显然,双眼位置既包括左眼位置,又包括右眼位置,由于每个人在不同图像上左右眼间距是不会变化的,因此,在不同图像之间进行比较说明时,所提及的人眼位置即同一只眼睛的位置。以左眼为例,可以获取每张图像中的左眼位置,比如,第一帧图像中左眼位置(x1,y1),第二帧图像中左眼位置(x2,y2),……第n帧图像中左眼位置(xn,yn),将这些点组成点集E。以右眼为例,可以获取每张图像中的右眼位置,比如,第一帧图像中右眼位置(x'1,y'1),第二帧图像中右眼位置(x'2,y'2),……第n帧图像中右眼位置(x'n,y'n),将这些点组成点集E。可以理解的是,该过程中,可以分别得到每张图像上的左眼位置和右眼位置,各张图像上左眼位置坐标组成左眼位置点集,各张图像上右眼位置坐标组成右眼位置点集。
需要说明的是,人眼实际在图像中占据一定的面积区域,在获取人眼坐标时,可以通过opencv、dlib等开源工具提供的视觉函数库,利用人工智能算法进行图像识别,利用工具箱里的人脸分类器检测出图像中的面部区域之后,对面部区域进一步利用人脸检测器,检测并标定五官特征点,标记出表示人眼轮廓的上下左右四个边界。将这四个边界围成的矩形的中心作为人眼位置,对于左眼即左眼位置,对于右眼即右眼位置。容易理解是,标记出表示人眼轮廓的特征点越多,则可以计算所有特征点的中心作为人眼位置,此时更加准确。
b3、确定所述点集的中心点。
基于上述n个坐标点,可以计算出点集E的中心(xE,yE)为
Figure BDA0002432167190000063
类似地,可以得到点集E的中心(x'E,y'E)。点集的中心点即就是表示该点集围成区域的几何中心位置,也即就是左眼中心或右眼中心,该中心点可以用于作为计算每张图像上左眼或右眼的偏移距离的参考点。
b4、计算所述点集中每个点与所述中心点之间距离的平均值。
对于左眼位置点集,点集中每个坐标点与中心点存在对应的距离,即存在n个距离,对于上述左眼位置点集中的n个坐标点,
Figure BDA0002432167190000062
可以计算各个点与中心点的距离。例如,第一个点距离中心(xE,yE)的距离
Figure BDA0002432167190000071
第n个点距离中心(xE,yE)的距离
Figure BDA0002432167190000072
由此能够量化不同图像上左眼位置的移动程度,并且还可以计算每个点与中心点之间距离的平均值lavr作为左眼位置移动程度的参考标准。对于右眼位置点集,还可以采用同样的方法,计算右眼位置点集中各个点与中心点的距离。
b5、在所述平均值小于或等于预设阈值的情况下,从所述至少两帧视频图像中的任一张视频图像中,确定所述双眼位置;在所述平均值大于预设阈值的情况下,将所述中心点所在位置确定为所述双眼位置。
可在电子设备中预设阈值用于判断人眼位置的移动幅度大小,如前所述,每个人在不同图像上左右眼间距是不会变化的,在不同图像之间进行比较说明时,所提及的人眼位置即同一只眼睛的位置。因此,在将平均值与预设阈值进行比较时,可以使用通过左眼位置点集计算得到的平均值或者右眼位置点集计算得到的平均值。比如,预设阈值为3mm,以左眼为例,当lavr小于或等于3mm时,即认为各张图像上左眼位置差异较小,可从至少两帧视频图像中任选一张图像中的双眼位置使用。当lavr大于3mm时,即认为各张图像上左眼位置差异较大,无论哪张都不合适,可以将点集E的中心(xE,yE)确定为左眼位置,将点集E的中心(x'E,y'E)确定为右眼位置。基于平均值与阈值的比较结果,针对左右眼,分别可以确定左眼位置为点EL=(xL,yL),右眼位置为点ER=(xR,yR)。可以理解的是,EL、ER可以来自于视频图像,也可以为计算所得到的中心点。需要说明的是,预设阈值可以由软件工程师根据硬件处理器性能、电子设备屏幕分辨率以及尺寸等参数具体设定,本发明对此不做约束。
针对上述步骤b1至b5确定双眼位置的过程,还可以结合以下示例理解:
用户甲作为发起方,使用电子设备A,向使用电子设备B的用户乙发起了视频通话请求,用户乙作为接收方,接收了视频通话请求。在视频通话开启之后,电子设备A的显示屏上会显示用户乙的视频画面,电子设备B的显示屏上会显示用户甲的视频画面。以用户甲为例,为了消除用户甲的视线偏差,电子设备A可以从用户乙的视频画面(即第一视频画面)中每间隔1s抽取三张图像,分别为图像P1、图像P2、图像P3。
对于图像P1,左眼位置为(x1,y1),右眼位置为(x′1,y′1);对于图像P2,左眼位置为(x2,y2),右眼位置为(x′2,y′2);对于图像P3,左眼位置为(x3,y3),右眼位置为(x′3,y′3)。相应的,可以得到左眼位置点集E=[(x1,y1),(x2,y2),(x3,y3)],右眼位置点集E=[(x′1,y′1),(x′2,y′2),(x′3,y′3)]]。计算可得:左眼位置点集E的中心
Figure BDA0002432167190000081
Figure BDA0002432167190000082
右眼位置点集E的中心
Figure BDA0002432167190000083
对于左眼位置点集E,各个点与中心点的距离分别为
Figure BDA0002432167190000084
Figure BDA0002432167190000085
Figure BDA0002432167190000086
各个距离的平均值
Figure BDA0002432167190000087
对于右眼位置点集E,各个点与中心点的距离分别为
Figure BDA0002432167190000088
Figure BDA0002432167190000089
Figure BDA00024321671900000810
各个距离的平均值
Figure BDA00024321671900000811
假设预设阈值为3mm,若lavr和l′avr中任意一个小于或等于3mm,则认为图像P1、图像P2和图像P3的眼睛移动位置变化幅度较小,可以取图像P1、图像P2和图像P3中任一张图像中的双眼位置坐标分别作为最终左眼位置EL=(xL,yL)和右眼位置ER=(xR,yR),比如选取图像P1中的(x1,y1)和(x′1,y′1),EL=(xL,yL)=(x1,y1),ER=(xR,yR)=(x′1,y′1)。
假设预设阈值为3mm,若lavr和l′avr中任意一个大于3mm,则认为图像P1、图像P2和图像P3的眼睛移动位置变化幅度较大,可以将左眼位置点集E和]右眼位置点集E的中心点分别作为最终左眼位置EL=(xL,yL)和右眼位置ER=(xR,yR),比如EL=(xL,yL)=(xE,yE),ER=(xR,yR)=(x′E,y′E)。
因此,EL、ER可以来自于视频图像,也可以为计算所得到的中心点,具体取决于双眼位置在不同图像中的移动幅度。
c、基于所述双眼位置确定目标采集位置。
基于上述步骤,可以确定视频图像中左眼和右眼分别在哪个位置,如此以来,便可结合双眼的位置确定一个适宜的目标采集位置,具体方法如下:
c1、根据所述双眼位置中左眼位置和右眼位置确定两眼连线的中点;
c2、将所述中点的位置作为目标采集位置。
如图7所示,左眼位置为点EL=(xL,yL),右眼位置为点ER=(xR,yR),通过平均值计算,可以得到如图8所示的左眼和右眼连线的中点
Figure BDA0002432167190000091
可将该中点Ec作为目标采集位置,即就是,通过与该中点Ec所重合的屏幕下方的摄像头采集用户视频画面。
需要说明的是,本实施例步骤b和步骤c中给出了根据人眼位置确定目标采集位置的示例,同时并不限定仅仅通过人眼位置确定目标采集位置。实际应用中,类似地,可以以视频画面中人的面部的鼻子、嘴巴等其他器官特征作为参考点寻找目标采集位置,同样具备减小实现偏差的效果。
上述内容针对步骤101给出了一种利用图像识别算法自动获取目标采集位置的详细方法。此外,针对步骤101获取显示屏显示的第一视频画面的目标采集位置的方法还可以参照如下步骤:
d1、接收用户的第一输入。
具体而言,当电子设备的显示屏上显示了第一视频画面之后,用户可以通过触控行为的手势操作、指纹分区识别、语音控制、眼球追踪等技术,向电子设备输入表示目标采集位置的第一输入,基于示例所给出的不同输入类型,该第一输入可以是触摸映射的位置坐标、指纹中某一分区对应的预设目标采集位置、语音数据中包括的位置信息、眼球追踪中视线焦点对应的位置信息。可以理解的是,电子设备可以通过触控屏、麦克风、光学传感器接收上述第一输入。
d2、响应于所述第一输入,将所述第一输入指示的所述显示屏显示的第一视频画面中的位置确定为目标采集位置。
当电子设备接收到第一输入之后,便可对第一输入进行分析解读,从中获取到第一输入所指示的第一视频画面中的位置,该位置即用户人为主动选择的目标采集位置。与前述利用图像识别算法自动获取目标采集位置的方法不同,此处用户可以处于实际需求,利用人机交互功能主动确定目标采集位置,可以避免图像识别算法可能产生的不准确的结果。
步骤102,通过所述目标采集位置上的摄像头采集第二视频画面。
当用于采集第二视频画面的目标采集位置(比如可以是上述步骤c2所确定的两眼连线的中点)确定之后,电子设备内部的处理器可根据位置信息触发启动位于该位置的摄像头,从而使用该摄像头采集屏幕前方的用户的第二视频画面。
具体的,步骤102中对于第二视频画面的采集,可通过如下方式一或者方式二的方法实现。
方式一:利用如图2所示的屏下摄像头阵列实现。在图2中,示出了一种阵列摄像头方案的示意,沿水平方向排列有至少两行摄像头,沿垂直方向排列有至少两行摄像头。实际阵列设置中,最少可排布两个摄像头成一行或一列。
子步骤一、确定所述至少两个摄像头中与所述目标采集位置对应位置的目标摄像头。
当电子设备的显示屏下设置了至少两个摄像头组成屏下摄像头阵列时,则每个摄像头都具有独立唯一的坐标位置,同时,基于前述在视频图像上确定的目标采集位置,可根据该目标采集位置确定位于该位置的目标摄像头。前述目标采集位置为单一坐标点,目标摄像头也对应有自身的坐标位置,如图2所示,当目标采集位置O与目标摄像头的位置完全重合一致时,毋庸置疑不存在问题。如图3所示,当目标采集位置O正好位于摄像头之间的间隙时,此时,目标采集位置与目标摄像头的位置存在误差,可将距离目标采集位置最近的一个摄像头作为目标摄像头即可。此外,还可以为目标采集位置O设定一个容差值r,如图3,以目标采集位置O为圆心,以容差值r为半径作圆,选择与该圆形相重叠的至少一个摄像头作为目标摄像头,比如将重叠区域面积从大到小排序,从中选择重叠面积最大的一个摄像头作为目标摄像头。从而,可以保证无论什么情况下,都能选定合适的目标摄像头。
子步骤二、通过所述目标摄像头,采集所述第二视频画面。
在目标摄像头得到确定之后,便可使用目标摄像头,接收穿过显示屏幕的面部反射光线,完成第二视频画面的采集。这种通过屏下阵列摄像头中目标摄像头采集第二视频画面的方案,多个摄像头的存在为目标采集位置的判断以及选择提供了较强的灵活性,同时,还可根据需求启动不止一个摄像头,进一步优化视频画面的视觉效果。
方式二:利用如图4所示的具有驱动机构的摄像头实现。在图4示意的电子设备中,显示屏下设置了驱动机构、第一滑杆101和第二滑杆102,需要说明的是,第一滑杆101可以为水平方向设置的杆件,起到轨道的作用,可供第二滑杆102沿水平方向移动。第二滑杆102与第一滑杆101垂直,在第二滑杆102上设置有屏下摄像头103。该驱动机构可以为电机减速器组件,用于驱动第二滑杆的水平运动,以及驱动摄像头沿着第二滑杆的上下运动,从而,摄像头可以到达屏幕中任意位置。需要说明的是,上述第一滑杆和第二滑杆可以为丝杠。
子步骤一、通过所述驱动机构,控制所述屏下摄像头移动至所述目标采集位置。
需要说明的是,方式二中,在电子设备屏幕下方,可以设置一个摄像头节省摄像头成本,同时,利用电机丝杠组件驱动摄像头沿X和/或Y方向运动。当目标采集位置确定之后,处理器可将位置信息发送给驱动机构的驱动器,驱动机构运动带动屏下摄像头移动至目标采集位置。
更具体的,屏下摄像头运动之前,电子设备可以先读取日志记录等信息获取屏下摄像头的初始位置(x初始,y初始),该初始位置可以是预先设定的坐标原点(比如,显示屏左上角),也可以是上一次运动结束的位置。基于初始位置与目标采集位置(x目标,y目标)两个坐标点的信息,容易计算得到从初始位置移动至目标采集位置的水平位移与垂直位移。dx=]x目标-x初始,dy=]y目标-]y初始,计算可以得到在水平方向的x轴与垂直方向上的y轴的移动距离及方向dx,dy。首先若dx>]0,则摄像头向右移动|dx|距离。若dx<]0,则摄像头向左侧移动|dx|距离。同理,若dy>]0,则摄像头向下移动|dy|距离。若dy<]0,则摄像头向上移动|dy|距离。驱动机构只需要按照水平位移与垂直位移指示的方向和距离运动,即可将屏下摄像头移动至目标采集位置。图5还给出了屏下摄像头移动后的示意图。移动过程,水平方向和垂直方向可以先后运动以保证平稳性,也可以同时运动以缩短运动时间。
子步骤二、通过所述目标采集位置处的所述屏下摄像头,采集第二视频画面。
在屏下摄像头到达目标采集位置之后,便可使用该屏下摄像头,接收穿过显示屏幕的面部反射光线,完成第二视频画面的采集。
可以理解的是,关于本发明实施例中方式一的目标摄像头或方式二中屏下摄像头采集第二视频画面的时机,示例中的描述均以在目标采集位置得到确定之后为例,也就是说,通过目标采集位置上的摄像头采集第二视频画面,需要先完成与目标采集位置对应的目标摄像头的确定,或者先完成将屏下摄像头移动至目标采集位置,其次再启动摄像头拍摄第二视频画面。需要说明的是,摄像头的启动时机与摄像头采集第二视频画面的时机可以相同,也可以不同,也即这并不意味着限定摄像头的启动时机一定只能在目标采集位置确定之后,因为实际应用中,对于视频通话的任意一方而言,一旦视频通话成功建立,一方可以先接收到对方的视频画面,因而,摄像头也可以先启动进行原始画面的拍摄,在拍摄过程中基于目标采集位置再去采集校正后的第二视频画面,这同样有助于解决现有视频通话的双方之间存在视线偏差的问题,与实施例所述的方案并不矛盾冲突。
步骤103,将所述第二视频画面传输至目标设备,所述目标设备为视频通话发起方或通话接收方的电子设备。
若摄像头采集的是通话发起方的视频画面,则将视频画面传输至通话接收方的电子设备,若摄像头采集的是通话接收方的视频画面,则将视频画面传输至通话发起方的电子设备。从而,任何一方在看到对方的视频画面时,其视线是向屏幕注视的,从而减小了视线偏差。如果注视的是对方眼睛,基本可以消除视线偏差。
需要说明的是,本方案适用于各种视频通话的场景,比如,一对一的双方视频通话,或者是多方视频会议。在多方视频会议中,可以通过放大或者全屏某一方的图像画面,从而切换为类似一对一的模式,再基于此方案进行目标采集位置的判断,继续视频画面的采集。本发明对具体的视频通话场景不做限定。
在本发明实施例中,在视频通话时,通过确定显示屏显示的第一视频画面中的目标采集位置,可通过与该目标采集位置对应的摄像头采集第二视频通话画面,从而,当通话的对方用户看到这样的第二视频通话画面时,画面中用户视线偏高或偏低的偏差便得到消减,可以削弱视频通话双方的空间距离感,提升视频通话双方的物理真实感,改善视频通话的使用体验。当目标采集位置为屏幕上第一视频画面中两眼连线的中点时,从而消除了视频通话时的视线偏差。
参照图9,示出了一种电子设备的框图,所述电子设备包括:
获取模块201,用于在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置。
可选地,所述获取模块201可以包括:
人脸区域识别子模块,用于识别所述第一视频画面中的人脸区域。
双眼位置确定子模块,用于确定所述人脸区域中的双眼位置。
目标采集位置确定子模块,用于基于所述双眼位置,确定目标采集位置。
可选地,所述双眼位置确定子模块可以包括:
抽取单元,用于按照预设时间间隔从所述第一视频画面中抽取至少两帧视频图像。
点集组成单元,用于基于每张所述视频图像中的双眼位置,得到与所述双眼位置对应的点集,其中,所述点集包括左眼位置点集和右眼位置点集。
中心点确定单元,用于确定所述点集的中心点。
平均值确定单元,用于计算所述点集中每个点与所述中心点之间距离的平均值。
双眼位置确定单元,用于在所述平均值小于或等于预设阈值的情况下,从所述至少两帧视频图像中的任一张所述视频图像中,确定所述双眼位置;在所述平均值大于预设阈值的情况下,将所述中心点所在位置确定为所述双眼位置。
可选地,所述目标采集位置确定子模块可以包括:
中点确定单元,用于根据所述双眼位置中左眼位置和右眼位置,确定两眼连线的中点。
目标采集位置确定单元,用于将所述中点的位置作为目标采集位置。
可选地,作为另一种手动的方式,所述获取模块201也可以包括:
接收子模块,用于接收用户的第一输入。
响应子模块,响应于所述第一输入,将所述第一输入指示的所述显示屏显示的第一视频画面中的位置确定为目标采集位置。
采集模块202,用于通过所述目标采集位置上的摄像头采集视频画面。
可选地,如图2所示,当所述电子设备的显示屏下设置有阵列排列的至少两个摄像头时,所述采集模块202可以包括:
目标摄像头确定子模块,用于确定所述至少两个摄像头中与所述目标采集位置对应位置的目标摄像头。
视频画面采集子模块,用于通过所述目标摄像头,采集所述第二视频画面。
或者,如图4所示,当所述电子设备的显示屏下设置有驱动机构、第一滑杆101和与所述第一滑杆101垂直设置的第二滑杆102时,所述驱动机构用于控制所述第二滑杆102在所述第一滑杆101上水平移动,所述第二滑杆102上设置有屏下摄像头103,所述驱动机构还用于控制所述屏下摄像头103在所述第二滑杆102上上下移动。所述采集模块202可以包括:
摄像头移动子模块,用于通过所述驱动机构,控制所述屏下摄像头移动至所述目标采集位置。
视频画面采集子模块,通过所述目标采集位置处的所述屏下摄像头采集所述第二视频画面。
可选地,所述摄像头移动子模块可以包括:
初始位置获取单元,用于获取所述屏下摄像头的初始位置。
位移确定单元,用于确定所述初始位置与所述目标采集位置之间的水平位移与垂直位移。
位置移动单元,用于按照所述水平位移,通过所述驱动机构,控制所述第二滑杆在所述第一滑杆上水平移动;按照所述垂直位移,通过所述驱动机构,控制所述摄像头在所述第二滑杆上垂直移动。
传输模块203,用于将所述第二视频画面传输至目标设备,所述目标设备为通话发起方或视频通话接收方的电子设备。
对于该电子设备的实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处及有益效果参见方法实施例的部分说明即可。
本发明实施例还提供了一种电子设备,包括:
包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如前述实施例提供的视频通话方法的步骤。本发明实施例提供的电子设备能够实现图1至图8的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
图10为实现本发明各个实施例的一种电子设备的硬件结构示意图;
该电子设备500包括但不限于:射频单元501、网络模块502、音频输出单元503、输入单元504、传感器505、显示单元506、用户输入单元507、接口单元508、存储器509、处理器510、以及电源511等部件。本领域技术人员可以理解,图10中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器510,用于在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置;
通过所述目标采集位置上的摄像头采集第二视频画面;
将所述第二视频画面传输至目标设备;其中,所述目标设备为视频通话发起方或视频通话接收方的电子设备。
本发明实施例提供的电子设备能够实现图1至图8的方法实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
在本发明实施例中,在视频通话时,通过确定显示屏上第一视频画面中的目标采集位置,可通过与该目标采集位置对应的摄像头采集摄像头前方用户的第二视频画面,从而,当视频通话的对方用户看到这样的第二视频画面时,画面中用户视线偏高或偏低的偏差便得到消减,可以削弱视频通话双方的空间距离感,提升视频通话双方的物理真实感,改善视频通话的使用体验。当目标采集位置为屏幕中两眼连线的中点时,基本可以消除视频通话时的视线偏差。
应理解的是,本发明实施例中,射频单元501可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器510处理;另外,将上行的数据发送给基站。通常,射频单元501包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元501还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块502为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元503可以将射频单元501或网络模块502接收的或者在存储器509中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元503还可以提供与电子设备500执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元503包括扬声器、蜂鸣器以及受话器等。
输入单元504用于接收音频或视频信号。输入单元504可以包括图形处理器(Graphics Processing Unit,GPU)5041和麦克风5042,图形处理器5041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元506上。经图形处理器5041处理后的图像帧可以存储在存储器509(或其它存储介质)中或者经由射频单元501或网络模块502进行发送。麦克风5042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元501发送到移动通信基站的格式输出。
电子设备500还包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板5061的亮度,接近传感器可在电子设备500移动到耳边时,关闭显示面板5061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器505还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元506用于显示由用户输入的信息或提供给用户的信息。显示单元606可包括显示面板5061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板5061。
用户输入单元507可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元507包括触控面板5071以及其他输入设备5072。触控面板5071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板5071上或在触控面板5071附近的操作)。触控面板5071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器510,接收处理器510发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板5071。除了触控面板5071,用户输入单元507还可以包括其他输入设备5072。具体地,其他输入设备5072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板5071可覆盖在显示面板5061上,当触控面板6071检测到在其上或附近的触摸操作后,传送给处理器510以确定触摸事件的类型,随后处理器510根据触摸事件的类型在显示面板5061上提供相应的视觉输出。虽然在图10中,触控面板5071与显示面板5061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板5071与显示面板5061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元508为外部装置与电子设备500连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元508可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备500内的一个或多个元件或者可以用于在电子设备500和外部装置之间传输数据。
存储器509可用于存储软件程序以及各种数据。存储器509可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器509可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器510是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器509内的软件程序和/或模块,以及调用存储在存储器509内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器510可包括一个或多个处理单元;优选的,处理器510可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器510中。
电子设备500还可以包括给各个部件供电的电源511(比如电池),优选的,电源511可以通过电源管理系统与处理器510逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备500包括一些未示出的功能模块,在此不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (10)

1.一种视频通话方法,应用于电子设备,其特征在于,所述方法包括:
在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置;
通过所述目标采集位置上的摄像头采集第二视频画面;
将所述第二视频画面传输至目标设备;
其中,所述目标设备为视频通话发起方或视频通话接收方的电子设备。
2.根据权利要求1所述的方法,其特征在于,所述获取显示屏显示的第一视频画面的目标采集位置,包括:
识别所述第一视频画面中的人脸区域;
确定所述人脸区域中的双眼位置;
基于所述双眼位置,确定目标采集位置。
3.根据权利要求2所述的方法,其特征在于,所述确定所述人脸区域中的双眼位置,包括:
按照预设时间间隔,从所述第一视频画面中抽取至少两帧视频图像;
基于每张所述视频图像中的双眼位置,得到与所述双眼位置对应的点集,其中,所述点集包括左眼位置点集和右眼位置点集;
确定所述点集的中心点;
计算所述点集中每个点与所述中心点之间距离的平均值;
在所述平均值小于或等于预设阈值的情况下,从所述至少两帧视频图像中的任一张视频图像中,确定所述双眼位置;
在所述平均值大于预设阈值的情况下,将所述中心点所在位置确定为所述双眼位置。
4.根据权利要求2所述的方法,其特征在于,所述基于所述双眼位置,确定目标采集位置,包括:
根据所述双眼位置中左眼位置和右眼位置,确定两眼连线的中点;
将所述中点的位置作为目标采集位置。
5.根据权利要求1所述的方法,其特征在于,所述获取显示屏显示的第一视频画面的目标采集位置,包括:
接收用户的第一输入;
响应于所述第一输入,将所述第一输入指示的所述显示屏显示的第一视频画面中的位置确定为目标采集位置。
6.根据权利要求1所述的方法,其特征在于,所述电子设备的显示屏下设置有阵列排列的至少两个摄像头;
所述通过所述目标采集位置上的摄像头采集第二视频画面,包括:
确定所述至少两个摄像头中与所述目标采集位置对应位置的目标摄像头;
通过所述目标摄像头,采集第二视频画面。
7.根据权利要求1所述的方法,其特征在于,所述电子设备的显示屏下设置有驱动机构、第一滑杆和与所述第一滑杆垂直设置的第二滑杆,所述驱动机构用于控制所述第二滑杆在所述第一滑杆上水平移动,所述第二滑杆上设置有屏下摄像头,所述驱动机构还用于控制所述屏下摄像头在所述第二滑杆上上下移动;
所述通过所述目标采集位置上的摄像头采集第二视频画面,包括:
通过所述驱动机构,控制所述屏下摄像头移动至所述目标采集位置;
通过所述目标采集位置处的所述屏下摄像头,采集第二视频画面。
8.根据权利要求7所述的方法,其特征在于,所述通过所述驱动机构,控制所述屏下摄像头移动至所述目标采集位置,包括:
获取所述屏下摄像头的初始位置;
确定所述初始位置与所述目标采集位置之间的水平位移与垂直位移;
按照所述水平位移,通过所述驱动机构,控制所述第二滑杆在所述第一滑杆上水平移动;
按照所述垂直位移,通过所述驱动机构,控制所述屏下摄像头在所述第二滑杆上垂直移动。
9.一种电子设备,其特征在于,包括:
确定模块,用于在视频通话过程中,获取显示屏显示的第一视频画面的目标采集位置,其中,所述目标采集位置为所述第一视频画面中人脸区域的目标特征位置;
采集模块,用于通过所述目标采集位置上的摄像头采集第二视频画面;
传输模块,用于将所述第二视频画面传输至目标设备;其中,所述目标设备为视频通话发起方或视频通话接收方的电子设备。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的视频通话方法的步骤。
CN202010239784.9A 2020-03-30 2020-03-30 视频通话方法、电子设备及计算机可读存储介质 Active CN111432155B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010239784.9A CN111432155B (zh) 2020-03-30 2020-03-30 视频通话方法、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010239784.9A CN111432155B (zh) 2020-03-30 2020-03-30 视频通话方法、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111432155A true CN111432155A (zh) 2020-07-17
CN111432155B CN111432155B (zh) 2021-06-04

Family

ID=71551778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010239784.9A Active CN111432155B (zh) 2020-03-30 2020-03-30 视频通话方法、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111432155B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104917993A (zh) * 2015-05-29 2015-09-16 京东方科技集团股份有限公司 显示装置及视频通讯终端
CN105812709A (zh) * 2016-03-18 2016-07-27 合肥联宝信息技术有限公司 一种利用摄像头实现虚拟摄像头的方法
US20170124933A1 (en) * 2015-10-30 2017-05-04 Essential Products, Inc. Mobile device with display overlaid with at least a light sensor
CN110493523A (zh) * 2019-08-27 2019-11-22 Oppo广东移动通信有限公司 图像显示方法、装置、终端及存储介质
CN110769155A (zh) * 2019-10-31 2020-02-07 维沃移动通信(杭州)有限公司 一种摄像头控制方法及电子设备
CN110809115A (zh) * 2019-10-31 2020-02-18 维沃移动通信有限公司 拍摄方法及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104917993A (zh) * 2015-05-29 2015-09-16 京东方科技集团股份有限公司 显示装置及视频通讯终端
US20170124933A1 (en) * 2015-10-30 2017-05-04 Essential Products, Inc. Mobile device with display overlaid with at least a light sensor
CN105812709A (zh) * 2016-03-18 2016-07-27 合肥联宝信息技术有限公司 一种利用摄像头实现虚拟摄像头的方法
CN110493523A (zh) * 2019-08-27 2019-11-22 Oppo广东移动通信有限公司 图像显示方法、装置、终端及存储介质
CN110769155A (zh) * 2019-10-31 2020-02-07 维沃移动通信(杭州)有限公司 一种摄像头控制方法及电子设备
CN110809115A (zh) * 2019-10-31 2020-02-18 维沃移动通信有限公司 拍摄方法及电子设备

Also Published As

Publication number Publication date
CN111432155B (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN108513070B (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN111541845B (zh) 图像处理方法、装置及电子设备
CN110740259B (zh) 视频处理方法及电子设备
CN108491775B (zh) 一种图像修正方法及移动终端
CN110809115B (zh) 拍摄方法及电子设备
CN109600550B (zh) 一种拍摄提示方法及终端设备
CN109461117B (zh) 一种图像处理方法及移动终端
CN108712603B (zh) 一种图像处理方法及移动终端
CN108989672B (zh) 一种拍摄方法及移动终端
CN110557575B (zh) 消除炫光的方法和电子设备
CN110602401A (zh) 一种拍照方法及终端
CN109685915B (zh) 一种图像处理方法、装置及移动终端
CN108683850B (zh) 一种拍摄提示方法及移动终端
CN111031253B (zh) 一种拍摄方法及电子设备
CN110602389B (zh) 一种显示方法及电子设备
CN109241832B (zh) 一种人脸活体检测的方法及终端设备
CN109544445B (zh) 一种图像处理方法、装置及移动终端
CN108881721B (zh) 一种显示方法及终端
CN108174110B (zh) 一种拍照方法及柔性屏终端
CN110908517B (zh) 图像编辑方法、装置、电子设备及介质
CN111401463A (zh) 检测结果输出的方法、电子设备及介质
CN110457885B (zh) 一种操作方法及电子设备
CN109104573B (zh) 一种确定对焦点的方法及终端设备
CN108924413B (zh) 拍摄方法及移动终端
WO2021185142A1 (zh) 图像处理方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant