CN109831636A - 互动视频控制方法、终端及计算机可读存储介质 - Google Patents

互动视频控制方法、终端及计算机可读存储介质 Download PDF

Info

Publication number
CN109831636A
CN109831636A CN201910082122.2A CN201910082122A CN109831636A CN 109831636 A CN109831636 A CN 109831636A CN 201910082122 A CN201910082122 A CN 201910082122A CN 109831636 A CN109831636 A CN 109831636A
Authority
CN
China
Prior art keywords
special effect
effect processing
facial
processing mode
facial special
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910082122.2A
Other languages
English (en)
Other versions
CN109831636B (zh
Inventor
黄艳荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nubia Technology Co Ltd
Original Assignee
Nubia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nubia Technology Co Ltd filed Critical Nubia Technology Co Ltd
Priority to CN201910082122.2A priority Critical patent/CN109831636B/zh
Publication of CN109831636A publication Critical patent/CN109831636A/zh
Application granted granted Critical
Publication of CN109831636B publication Critical patent/CN109831636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephone Function (AREA)

Abstract

本发明公开了一种互动视频控制方法、终端及计算机可读存储介质,在通过终端进行视频通话过程中,检测当前是否触发面部特效处理条件,如果检测到面部特效处理条件触发时,则确定当前需采用的面部特效处理方式,进而根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理后发给视频通话中的对端用户;本发明还公开了一种终端及计算机可读存储介质,通过实施上述方案,从而实现在视频通话过程中对本端用户的面部表情处理之后发给对端用户,使得对端用户所看到的表情是经过特效处理之后的表情,增加视频通话的神秘感和趣味性,也丰富了视频通话的功能,使其能更好的满足用户的多样化需求,从而提升用户体验的满意度。

Description

互动视频控制方法、终端及计算机可读存储介质
技术领域
本发明涉及图像技术领域,更具体地说,涉及一种互动视频控制方法、终端及计算机可读存储介质。
背景技术
随着移动智能终端的不断普及和网络覆盖的发展以及性能的提升,在目前的网络带宽和速度基础上,利用移动智能终端随时随地的视频通话已经成为越来越多用户的通话选择和使用习惯。视频通话相对不传统的语音通话,最大的优点就在于通信两端的本端用户和对端用户之间可以相互看着对方进行面对面的交流。本端的终端和对端的终端都会将实时采集到的两端用户的真实画面实时发送给对端,对端用户和本端用户所看到的对象的一言一行都是真实的,甚至可将两端用户脸上的喜怒哀乐都能实时的发给对端用户。采用目前的视频通,当本端用户由于各种原因不希望对端用户看到自身真实的面部表情时,目前的视频通话并不支持对用户面部表情进行处理,这也导致现有的视频通话方式通话功能比较单一,互动趣味性也相对较差,用户体验的满意度不高。
发明内容
本发明要解决的技术问题在于:目前的视频通话并不支持对用户面部表情进行处理,导致现有的视频通话方式通话效果比较单一,互动趣味性也相对较差,用户体验的满意度不高;针对该技术问题,提供一种互动视频控制方法、终端及计算机可读存储介质。
为解决上述技术问题,本发明提供一种互动视频控制方法,所述互动视频控制方法包括:
在通过终端进行视频通话过程中,检测当前是否触发面部特效处理条件;
检测到面部特效处理条件触发时,确定当前采用的面部特效处理方式;
根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理后,发给所述视频通话中的对端用户。
可选的,所述检测当前是否触发面部特效处理条件包括以下至少之一:
检测是否接收到面部特效处理启动指令;
检测当前视频通话过程中,采集的所述本端用户的语音信息中是否包括预设语音内容;
检测当前视频通话过程中,所述对端用户发过来的语音信息中是否包括预设语音内容;
检测所述对端用户是否为预设白名单中的用户,所述预设白名单中包括需要进行面部特效处理的各用户;
检测当前视频通话过程中,所述本端用户的肢体动作是否为预设肢体动作;
检测当前视频通话过程中,所述本端用户的眼部动作是否为预设眼部动作;
检测当前视频通话过程中,所述本端用户的嘴部动作是否为预设嘴部动作。
可选的,所述检测当前是否触发面部特效处理条件包括:所述检测是否接收到面部特效处理启动指令,以及检测所述对端用户是否为预设白名单中的用户;
所述方法还包括:当前触发面部特效处理条件为接收到面部特效处理启动指令时,获取所述对端用户,将所述对端用户加入所述预设白名单中。
可选的,所述获取所述对端用户后,将所述对端用户加入所述预设白名单中之前,还包括以下至少之一:
向所述本端用户发送用于确认是否将所述对端用户加入所述预设白名单的确认消息;
确认获取所述对端用户的次数是否大于预设次数阈值。
可选的,所述确定当前采用的面部特效处理方式包括以下至少之一:
接收面部特效处理方式选择指令,根据该面部特效处理方式选择指令中的指示信息确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的语音信息中的关键字,根据所述关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,获取所述对端用户发送过来的语音信息中的关键字,根据所述关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的眼部动作,根据所述眼部动作和预设的眼部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的嘴部动作,根据所述嘴部动作和预设的嘴部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的肢体动作,根据所述肢体动作和预设的肢体动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式。
可选的,所述根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理包括:
从当前采集到的视频数据中提取出图像帧;
从所述图像帧中提取出包括本端用户之面部数据的图像数据;
根据确定的面部特效处理方式对所述图像数据进行处理后,融入所述图像帧中。
可选的,所述面部特效处理方式包括以下方式中的至少之一:
生成打瞌睡面部表情的面部特效处理方式;
生成严肃面部表情的面部特效处理方式;
生成微笑面部表情的面部特效处理方式;
生成生气面部表情的面部特效处理方式;
生成委屈面部表情的面部特效处理方式;
生成哭泣面部表情的面部特效处理方式;
生成可爱面部表情的面部特效处理方式;
生成惊恐面部表情的面部特效处理方式;
生成搞怪面部表情的面部特效处理方式。
可选的,所述检测到面部特效处理条件触发后,还包括:
检测当前是否触发关闭面部特效处理条件,如是,则停止对采集到的本端用户的面部表情进行处理。
进一步的,本发明还提供了一种终端,所述终端包括处理器、存储器以及通信总线;
所述通信总线用于实现所述处理器与所述存储器之间的通信连接;
所述处理器用于执行存储器中存储的一个或者多个程序,以实现如上所述的互动视频控制方法的步骤。
进一步的,本发明还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上所述的互动视频控制方法的步骤。
有益效果
本发明提供一种互动视频控制方法、终端及计算机可读存储介质,在通过终端进行视频通话过程中,检测当前是否触发面部特效处理条件,如果检测到面部特效处理条件触发时,则确定当前需采用的面部特效处理方式,进而根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理后发给视频通话中的对端用户;从而实现在视频通话过程中对本端用户的面部表情处理之后发给对端用户,从而使得对端用户所看到的表情是经过特效处理之后的表情,增加视频通话的神秘感和趣味性,也丰富了视频通话的功能,使其能更好的满足用户的多样化需求,从而提升用户体验的满意度。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为实现本发明各个实施例一个可选的移动终端的硬件结构示意图;
图2为实现本发明各个实施例一个可选的相机的电气结构示意图;
图3为本发明第一实施例提供的互动视频控制方法流程示意图;
图4为本发明第一实施例提供的自学习设置白名单的流程示意图;
图5为本发明第一实施例提供的面部数据特效处理流程示意图;
图6为本发明第三实施例提供的终端结构示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端,然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
图1为实现本发明各个实施例一个可选的移动终端的硬件结构示意图。
移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件,可以替代地实施更多或更少的组件,将在下面详细描述移动终端的元件。
无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块、移动通信模块、无线互联网模块、短程通信模块和位置信息模块中的至少一个,通过以上各通信模块对外实现对应的通信功能。
A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示模块151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端的构造提供两个或更多相机121,具体的,对于相机的电气结构可以参照图2所示。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示模块151上时,可以形成触摸屏。
感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以包括接近传感器141。
接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(UIM)、客户识别模块(SIM)、通用客户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端和外部装置之间传输数据。
另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。
输出单元150可以包括显示模块151、音频输出模块152、警报模块153等等。
显示模块151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示模块151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示模块151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
同时,当显示模块151和触摸板以层的形式彼此叠加以形成触摸屏时,显示模块151可以用作输入装置和输出装置。显示模块151可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示模块(或其它显示装置),例如,移动终端可以包括外部显示模块(未示出)和内部显示模块(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
音频输出模块152可以在移动终端处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
警报模块153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报模块153可以以不同的方式提供输出以通知事件的发生。例如,警报模块153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incoming communication)时,警报模块153可以提供触觉输出(即,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报模块153也可以经由显示模块151或音频输出模块152提供通知事件的发生的输出。
存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括用于再现(或回放)多媒体数据的多媒体模块181,多媒体模块181可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
图2为实现本发明各个实施例一个可选的相机的电气结构示意图。
摄影镜头1211由用于形成被摄体像的多个光学镜头构成,其中,摄影镜头1211可以为单焦点镜头或变焦镜头。摄影镜头1211在镜头驱动器1221的控制下能够在光轴方向上移动,镜头驱动器1221根据来自镜头驱动控制电路1222的控制信号,控制摄影镜头1211的焦点位置,在变焦镜头的情况下,也可控制焦点距离。镜头驱动控制电路1222按照来自微型计算机1217的控制命令进行镜头驱动器1221的驱动控制,镜头驱动控制电路1222也可按照来自控制器180、处理器、微控制器、微处理器的控制命令进行驱动控制。
在摄影镜头1211的光轴上、由摄影镜头1211形成的被摄体像的位置附近配置有摄像元件1212。摄像元件1212用于对被摄体像摄像并取得摄像图像数据。在摄像元件1212上二维且呈矩阵状配置有构成各像素的光电二极管。各光电二极管产生与受光量对应的光电转换电流,该光电转换电流由与各光电二极管连接的电容器进行电荷蓄积。各像素的前表面配置有拜耳排列的RGB滤色器。
摄像元件1212与摄像电路1213连接,该摄像电路1213在摄像元件1212中进行电荷蓄积控制和图像信号读出控制,对读出的图像信号(模拟图像信号)降低重置噪声后进行波形整形,进而进行增益提高等以成为适当的信号电平。
摄像电路1213与A/D转换器1214连接,该A/D转换器1214对模拟图像信号进行模数转换,向总线1227输出数字图像信号(以下称之为图像数据)。
总线1227是用于传送在相机的内部读出或生成的各种数据的传送路径。在总线1227连接着上述A/D转换器1214,此外还连接着图像处理器1215、JPEG处理器1216、微型计算机1217、SDRAM(Synchronous Dynamic random access memory,同步动态随机存取内存)1218、存储器接口(以下称之为存储器I/F)1219、LCD(Liquid Crystal Display,液晶显示器)驱动器1220。
图像处理器1215对基于摄像元件1212的输出的图像数据进行OB相减处理、白平衡调整、颜色矩阵运算、伽马转换、色差信号处理、噪声去除处理、同时化处理、边缘处理等各种图像处理。JPEG处理器1216在将图像数据记录于记录介质1225时,按照JPEG压缩方式压缩从SDRAM1218读出的图像数据。此外,JPEG处理器1216为了进行图像再现显示而进行JPEG图像数据的解压缩。进行解压缩时,读出记录在记录介质1225中的文件,在JPEG处理器1216中实施了解压缩处理后,将解压缩的图像数据暂时存储于SDRAM1218中并在LCD1226上进行显示。另外,在本实施方式中,作为图像压缩解压缩方式采用的是JPEG方式,然而压缩解压缩方式不限于此,当然可以采用MPEG、TIFF、H.264等其他的压缩解压缩方式。
微型计算机1217发挥作为该相机整体的控制部的功能,统一控制相机的各种处理序列。微型计算机1217连接着操作单元1223和闪存1224。
操作单元1223包括但不限于实体按键或者虚拟按键,该实体或虚拟按键可以为电源按钮、拍照键、编辑按键、动态图像按钮、再现按钮、菜单按钮、十字键、OK按钮、删除按钮、放大按钮等各种输入按钮和各种输入键等操作控件,检测这些操作控件的操作状态,。
将检测结果向微型计算机1217输出。此外,在作为显示器的LCD1226的前表面设有触摸面板,检测用户的触摸位置,将该触摸位置向微型计算机1217输出。微型计算机1217根据来自操作单元1223的操作位置的检测结果,执行与用户的操作对应的各种处理序列。
闪存1224存储用于执行微型计算机1217的各种处理序列的程序。微型计算机1217根据该程序进行相机整体的控制。此外,闪存1224存储相机的各种调整值,微型计算机1217读出调整值,按照该调整值进行相机的控制。
SDRAM1218是用于对图像数据等进行暂时存储的可电改写的易失性存储器。SDRAM1218暂时存储从A/D转换器1214输出的图像数据和在图像处理器1215、JPEG处理器1216等中进行了处理后的图像数据。
存储器接口1219与记录介质1225连接,进行将图像数据和附加在图像数据中的文件头等数据写入记录介质1225和从记录介质1225中读出的控制。记录介质1225例如为能够在相机主体上自由拆装的存储器卡等记录介质,然而不限于此,也可以是内置在相机主体中的硬盘等。
LCD驱动器1220与LCD1226连接,将由图像处理器1215处理后的图像数据存储于SDRAM1218,需要显示时,读取SDRAM1218存储的图像数据并在LCD1226上显示,或者,JPEG处理器1216压缩过的图像数据存储于SDRAM1218,在需要显示时,JPEG处理器1216读取SDRAM1218的压缩过的图像数据,再进行解压缩,将解压缩后的图像数据通过LCD1226进行显示。
LCD1226配置在相机主体的背面进行图像显示。该LCD1226LCD,然而不限于此,也可以采用有机EL等各种显示面板(LCD1226),然而不限于此,也可以采用有机EL等各种显示面板。
基于上述移动终端硬件结构以及相机的电气结构,提出本发明摄像头检测装置、方法及多摄像头终端各个实施例。
以下,通过具体实施例对本发明摄像头检测装置、方法及多摄像头终端进行详细说明。
基于上述终端硬件结构以及通信网络系统,提出本发明方法各个实施例。
第一实施例
本实施例提供了一种互动视频控制方法,在通过终端进行视频通话过程中,检测到面部特效处理条件触发时,根据相应的面部特效处理方式,对采集到的本端用户的面部表情进行处理后发给视频通话中的对端用户,从而使得对端用户所看到的表情是经过特效处理之后的表情,增加视频通话的神秘感和趣味性,也丰富了视频通话的方式,从而提升用户体验的满意度。
为了便于理解,本实施例下面结合一种互动视频控制方法的过程为示例进行说明,请参见图3所示,其包括:
S301:在通过终端进行视频通话过程中,检测当前是否触发面部特效处理条件。
应当理解的是,本实施例中的终端可以是具有拍摄功能的手机、平板电脑、笔记本电脑、掌上电脑、PDA、便捷式媒体播放器、导航装置、可穿戴设备等移动终端,也可以是诸如数字TV、台式计算机、车载电脑等固定类终端。
在本实施例中,对于面部特效处理条件可以提前在终端中设置,且该设置可由应用提供商或终端厂商设置,也可支持用户自定义设置。在一些示例中还可支持动态更新。
本实施例中,面部特效处理条件可以包括终端用户手动触发的条件,也可包括由终端自身进行自动检测触发的条件。为了便于理解,本实施例下面以检测当前是否触发面部特效处理条件包括以下至少之一进行示例说明:
检测是否接收到面部特效处理启动指令,在本条件中,可由终端用户在需要时,手动的下发面部特效处理启动指令,终端在检测到该面部特效处理启动指令之后即可得知现在需要启动面部特效处理;且应当理解的是,终端下发该面部特效处理启动指令的方式可以多种多样,例如可包括但不限于通过在终端屏幕通过特定触控的方式下发,或通过终端上的按键下发等;
检测当前视频通话过程中,采集的本端用户的语音信息中是否包括预设语音内容;在本方式中,可以在终端内预先设置好特定的语音内容,该特定的语音内容可以由终端用户自定义设置,可以由应用提供商或终端厂家推荐,并可支持自定义;且在本实施例中设置的特定语音内容可以的条数也可以灵活设定;在本条件中,当检测到采集的语音信息中包括设置的至少一个特定语音内容时,即可确认现在需要启动面部特效处理;
检测当前视频通话过程中,对端用户发过来的语音信息中是否包括预设语音内容;本条件中的语音内容与一条件中的预设语音内容可以相同,也可以不同,具体设置规则可参见上述说明,再次不再赘述;
检测对端用户是否为预设白名单中的用户;在本条件中,可以在终端上预设白名单,该预设白名单中包括需要进行面部特效处理的各用户;具体可以包括各用户的唯一识别信息,例如视频通话用的账号等。且本实施例中预设白名单中所包括的用户可以由终端用户定义设置,也可由终端自学习设置,或者两种同时采用上述两种方式进行设置;
检测当前视频通话过程中,本端用户的肢体动作是否为预设肢体动作;本条件中的肢体动作可以包括但不限于手的手臂、胳膊、手指、手掌、腿部(包括大腿、小腿、脚部中的至少一种)等至少一个部分的动作;在本实施例中可以先将特定的肢体动作在终端内预先设置好,终端用户在需要启动特效处理时,则可通过完成相应的肢体动作即可,操作方便且比较有趣味性;另外,本实施例中肢体动作的识别可以采用各种图像识别处理技术实现,在此不再赘述;
检测当前视频通话过程中,本端用户的眼部动作是否为预设眼部动作;本条件中的眼部动作可包括但不限于眼球转动、眼球左右移动、眼球上下移动、眨眼、闭眼、眼睛睁大等动作中的至少一种;用户也可一线在终端内设置好相应的眼部动作,然后终端用户在需要启动特效处理时,则可通过完成相应的眼部动作即可,操作方便且比较有趣味性;另外,应当理解的是,本实施例中眼部动作的识别也可以采用各种图像识别处理技术实现,在此不再赘述;
检测当前视频通话过程中,本端用户的嘴部动作是否为预设嘴部动作;本条件中的嘴部动作可包括但不限于闭嘴、嘴巴微张、嘴巴张圆、嘟嘴、伸舌头中的至少一种;用户也可一线在终端内设置好相应的眼部动作,然后终端用户在需要启动特效处理时,则可通过完成相应的眼部动作即可,操作方便且比较有趣味性;另外,应当理解的是,本实施例中眼部动作的识别也可以采用各种图像识别处理技术实现,在此不再赘述;
在本实施例中,上述几种条件仅仅是示例的条件,且可以任意组合。且上述示例的几种条件中,除了用户下发特效处理启动指令这一条件外,其他的条件终端也可以通过自动学习设置。例如终端检测到用户总是在出现某一肢体动作、或眼部动作或嘴部动作、或总是跟某一用户视频聊天时、或总是说出什么特定内容或接收到对端用户说出的特定内容时,开启特效处理,则终端可以自动的将用户的上述习惯学习下来,并在检测到用户出现上述习惯时自动的启动特效处理,从而提升视频通话的智能性以及用户体验的满意度。
例如,在一种示例中,当S301中的检测当前是否触发面部特效处理条件包括:检测是否接收到面部特效处理启动指令,以及检测对端用户是否为预设白名单中的用户时;如果当前触发面部特效处理条件为接收到面部特效处理启动指令时,请参见图4所示,还可包括:
S401:获取对端用户。本步骤中包括获取对端用户的唯一识别信息。
S402:将对端用户加入预设白名单中;从而实现白名单的自动学习设置。
当然,在本实施例的一种示例中,当获取到该对端用户后,可以对获取次数进行累计,然后将对端用户加入预设白名单中之前,还包括以下至少之一:
向本端用户发送用于确认是否将对端用户加入预设白名单的确认消息,在用户确认加入时才将其加入;
确认获取对端用户的次数是否大于预设次数阈值,如是,才表明针对该对端用户,本端用户会习惯性的使用面部特效处理。
在本实施例的一种示例中,用户在使用视频通话过程中,还可动态的关闭特效处理功能,此时终端在检测到面部特效处理条件触发后,还可包括:
检测当前是否触发关闭面部特效处理条件,如是,则停止对采集到的本端用户的面部表情进行处理。
应当理解的是,本实施例中关闭面部特效处理条件的也可灵活设置,且可采用但不限于与上述面部特效处理条件类似的设置方式,在此不再赘述。
S302:检测到面部特效处理条件触发时,确定当前采用的面部特效处理方式。
在本实施例中,可以在终端内预先设置好各种面部特效处理方式,当然终端也可实时的同服务器侧下载相应的面部特效处理方式。且本实施例中,确定当前采用的面部特效处理方式的确定方式可以由本端用户手动指定,也可由终端根据预设的条件自动匹配确定;当然也可采样两种方式的结合。
S303:根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理后,发给视频通话中的对端用户。
例如,其中的一种处理方式可参见图5所示,包括:
S501:从当前采集到的视频数据中提取出图像帧。
S502:从图像帧中提取出包括本端用户之面部数据的图像数据。
S503:根据确定的面部特效处理方式对提取的图像数据进行处理后,融入图像帧中。进而随着视频数据发给对端客户,对端的终端解析出来呈献给对端用户的图像中则是经过特效处理之后的图像;而不是本端终端采集的原始图像,因此对端用户所看到的是经过特效处理之后的用户表情,而不是采集到的真实表情,从而可以提升视频通话的趣味性和神秘性,丰富视频通话的功能,使其能跟好的满足用户需求。
第二实施例
为了便于理解,本实施例在上述实施例基础上,以一种确定当前采用的面部特效处理方式的过程进行示例说明。且根据上述分析可知,确定当前采用的面部特效处理方式的确定方式可以由本端用户手动指定,也可由终端根据预设的条件自动匹配确定,也可采样两种方式的结合。本实施例中所示例的确定当前采用的面部特效处理方式可包括但不限于以下方式中的至少一种:
方式一:接收面部特效处理方式选择指令,根据该面部特效处理方式选择指令中的指示信息确定当前采用的面部特效处理方式;在本方式中,本端用户可以根据需求灵活的从各面部特效处理方式中当前所需要的处理方式;且应当理解的是,本实施例中面部特效处理方式具体包括的类型也可灵活设置,且具体的特效处理算法则可采用现有各种特效处理算法实现,在此不再赘述;例如,一种示例中,面部特效处理方式可包括但不以下方式中的至少之一:
生成打瞌睡面部表情的面部特效处理方式;
生成严肃面部表情的面部特效处理方式;
生成微笑面部表情的面部特效处理方式;
生成生气面部表情的面部特效处理方式;
生成委屈面部表情的面部特效处理方式;
生成哭泣面部表情的面部特效处理方式;
生成可爱面部表情的面部特效处理方式;
生成惊恐面部表情的面部特效处理方式;
生成搞怪面部表情的面部特效处理方式;
例如,用户在视频通话中感觉很困了或者不想与对端用户聊了,就可通过下发面部特效处理方式选择指令选择生成打瞌睡面部表情的面部特效处理方式,从而使得发给对端用户的图像中的面部表情为打瞌睡,这样对端用户则可能因为本端用户状态不好而停止视频通话,或本端用户可藉由状态不好结束通话,同时又能避免尴尬。
方式二:在当前视频通话过程中,采集本端用户的语音信息中的关键字,根据关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;本实施例中的关键字内容可以灵活设置且可支持动态更新。例如,一种示例的关键字与面部特效处理方式的对应关系可参见表一所示:
表一
关键字 面部特效处理方式
高兴,愉快,happy 生成微笑面部表情的面部特效处理方式
可爱,卡哇伊 生成可爱面部表情的面部特效处理方式
不开心,伤心,没兴趣 生成生气面部表情的面部特效处理方式
累,瞌睡,困,疲倦 生成打瞌睡面部表情的面部特效处理方式
方式三:在当前视频通话过程中,获取对端用户发送过来的语音信息中的关键字,根据关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;其中本方式中的关键字的设置与方式二可以类似,二者内容可以相同,也可不同,在此不再赘述。
方式四:在当前视频通话过程中,采集本端用户的眼部动作,根据眼部动作和预设的眼部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;本方式中的眼部动作可以采用上述第一实施例中所示例的各种眼部动作中的至少一种,也可采用新的眼部动作,且可支持更新和自定义设置。例如,一种示例的眼部动作与面部特效处理方式的对应关系可参见表二所示:
表二
方式五:在当前视频通话过程中,采集本端用户的嘴部动作,根据嘴部动作和预设的嘴部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;本方式中的嘴部动作可以采用上述第一实施例中所示例的各种嘴部动作中的至少一种,也可采用新的嘴部动作,且可支持更新和自定义设置。例如,一种示例的嘴部动作与面部特效处理方式的对应关系可参见表三所示:
表三
嘴部动作 面部特效处理方式
伸舌头 生成搞怪面部表情的面部特效处理方式
嘟嘴 生成可爱面部表情的面部特效处理方式
嘴巴张圆 生成惊恐面部表情的面部特效处理方式
闭嘴 生成严肃面部表情的面部特效处理方式
在当前视频通话过程中,采集所述本端用户的肢体动作,根据所述肢体动作和预设的肢体动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式。本方式中的肢体动作可以采用上述第一实施例中所示例的各种肢体动作中的至少一种,也可采用新的肢体动作,且可支持更新和自定义设置,在此不再赘述。
可见,通过本实施例所提供的面部特效处理方式的确定方式,可以从多方面灵活的确定面部特效处理方式,提升视频通话控制的灵活性和多元性,且可进一步提升用户体验的满意度。
第三实施例
本实施例提供了一种终端,该终端可以是手机、平板电脑、笔记本电脑、掌上电脑、PDA、便捷式媒体播放器、导航装置、可穿戴设备、智能手环、计步器等移动终端,也可以是诸如数字TV、台式计算机等固定类终端。其包括用于拍摄的拍摄模块,该拍摄模块可以采用各种摄像头实现。且请参见图6所示,本实施例中的终端包括处理器601、存储器602以及通信总线603;
通信总线603用于实现处理器601与存储器602之间的通信连接;
处理器601用于执行存储器602中存储的一个或者多个程序,以实现如上各实施例中所示例的互动视频控制方法的步骤。
本实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可应用于各种终端内,其存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现如上各实施例中所示例的互动视频控制方法的步骤。
需要说明的是,在本文中,术语“包括”、“包括”或者其任何其他变体意在涵盖非排他性的包括,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台柔性屏终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种互动视频控制方法,其特征在于,所述互动视频控制方法包括:
在通过终端进行视频通话过程中,检测当前是否触发面部特效处理条件;
检测到面部特效处理条件触发时,确定当前采用的面部特效处理方式;
根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理后,发给所述视频通话中的对端用户。
2.如权利要求1所述的互动视频控制方法,其特征在于,所述检测当前是否触发面部特效处理条件包括以下至少之一:
检测是否接收到面部特效处理启动指令;
检测当前视频通话过程中,采集的所述本端用户的语音信息中是否包括预设语音内容;
检测当前视频通话过程中,所述对端用户发过来的语音信息中是否包括预设语音内容;
检测所述对端用户是否为预设白名单中的用户,所述预设白名单中包括需要进行面部特效处理的各用户;
检测当前视频通话过程中,所述本端用户的肢体动作是否为预设肢体动作;
检测当前视频通话过程中,所述本端用户的眼部动作是否为预设眼部动作;
检测当前视频通话过程中,所述本端用户的嘴部动作是否为预设嘴部动作。
3.如权利要求2所述的互动视频控制方法,其特征在于,所述检测当前是否触发面部特效处理条件包括:所述检测是否接收到面部特效处理启动指令,以及检测所述对端用户是否为预设白名单中的用户;
所述方法还包括:当前触发面部特效处理条件为接收到面部特效处理启动指令时,获取所述对端用户,将所述对端用户加入所述预设白名单中。
4.如权利要求3所述的互动视频控制方法,其特征在于,所述获取所述对端用户后,将所述对端用户加入所述预设白名单中之前,还包括以下至少之一:
向所述本端用户发送用于确认是否将所述对端用户加入所述预设白名单的确认消息;
确认获取所述对端用户的次数是否大于预设次数阈值。
5.如权利要求1-4任一项所述的互动视频控制方法,其特征在于,所述确定当前采用的面部特效处理方式包括以下至少之一:
接收面部特效处理方式选择指令,根据该面部特效处理方式选择指令中的指示信息确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的语音信息中的关键字,根据所述关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,获取所述对端用户发送过来的语音信息中的关键字,根据所述关键字和预设的关键字与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的眼部动作,根据所述眼部动作和预设的眼部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的嘴部动作,根据所述嘴部动作和预设的嘴部动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式;
在当前视频通话过程中,采集所述本端用户的肢体动作,根据所述肢体动作和预设的肢体动作与面部特效处理方式的对应关系,确定当前采用的面部特效处理方式。
6.如权利要求1-4任一项所述的互动视频控制方法,其特征在于,所述根据确定的面部特效处理方式,对采集到的本端用户的面部表情进行处理包括:
从当前采集到的视频数据中提取出图像帧;
从所述图像帧中提取出包括本端用户之面部数据的图像数据;
根据确定的面部特效处理方式对所述图像数据进行处理后,融入所述图像帧中。
7.如权利要求1-4任一项所述的互动视频控制方法,其特征在于,所述面部特效处理方式包括以下方式中的至少之一:
生成打瞌睡面部表情的面部特效处理方式;
生成严肃面部表情的面部特效处理方式;
生成微笑面部表情的面部特效处理方式;
生成生气面部表情的面部特效处理方式;
生成委屈面部表情的面部特效处理方式;
生成哭泣面部表情的面部特效处理方式;
生成可爱面部表情的面部特效处理方式;
生成惊恐面部表情的面部特效处理方式;
生成搞怪面部表情的面部特效处理方式。
8.如权利要求1-4任一项所述的互动视频控制方法,其特征在于,所述检测到面部特效处理条件触发后,还包括:
检测当前是否触发关闭面部特效处理条件,如是,则停止对采集到的本端用户的面部表情进行处理。
9.一种终端,其特征在于,所述终端包括处理器、存储器以及通信总线;
所述通信总线用于实现所述处理器与所述存储器之间的通信连接;
所述处理器用于执行存储器中存储的一个或者多个程序,以实现如权利要求1-8任一项所述的互动视频控制方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-8任一项所述的互动视频控制方法的步骤。
CN201910082122.2A 2019-01-28 2019-01-28 互动视频控制方法、终端及计算机可读存储介质 Active CN109831636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910082122.2A CN109831636B (zh) 2019-01-28 2019-01-28 互动视频控制方法、终端及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910082122.2A CN109831636B (zh) 2019-01-28 2019-01-28 互动视频控制方法、终端及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109831636A true CN109831636A (zh) 2019-05-31
CN109831636B CN109831636B (zh) 2021-03-16

Family

ID=66862633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910082122.2A Active CN109831636B (zh) 2019-01-28 2019-01-28 互动视频控制方法、终端及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN109831636B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188712A (zh) * 2019-06-03 2019-08-30 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN110896450A (zh) * 2019-11-13 2020-03-20 维沃移动通信有限公司 一种人物图像的处理方法及电子设备
CN111010526A (zh) * 2019-11-11 2020-04-14 珠海格力电器股份有限公司 一种视频通讯中的互动方法及装置
CN111614926A (zh) * 2020-05-28 2020-09-01 腾讯科技(深圳)有限公司 网络通话方法、装置、计算机设备和存储介质
CN111953905A (zh) * 2020-08-26 2020-11-17 维沃移动通信有限公司 美颜功能开启方法、装置及电子设备
CN112188235A (zh) * 2019-07-05 2021-01-05 上海交通大学 媒体处理方式的选择方法及媒体处理方法
CN112333473A (zh) * 2020-10-30 2021-02-05 北京字跳网络技术有限公司 一种交互方法、装置以及计算机存储介质
CN112333464A (zh) * 2020-10-30 2021-02-05 北京字跳网络技术有限公司 一种交互数据生成方法、装置以及计算机存储介质
CN112565913A (zh) * 2020-11-30 2021-03-26 维沃移动通信有限公司 视频通话方法、装置和电子设备
CN112752161A (zh) * 2020-01-13 2021-05-04 腾讯科技(深圳)有限公司 一种基于实时通信的互动方法、社交应用终端及相关装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917105A (zh) * 2012-10-17 2013-02-06 中国联合网络通信集团有限公司 呼叫信息处理方法和终端设备
CN106528236A (zh) * 2016-11-11 2017-03-22 努比亚技术有限公司 内存加速白名单的配置方法及装置
CN107623830A (zh) * 2016-07-15 2018-01-23 掌赢信息科技(上海)有限公司 一种视频通话方法及电子设备
CN107864357A (zh) * 2017-09-28 2018-03-30 努比亚技术有限公司 视频通话特效控制方法、终端及计算机可读存储介质
CN107948667A (zh) * 2017-12-05 2018-04-20 广州酷狗计算机科技有限公司 在直播视频中添加显示特效的方法和装置
CN108304753A (zh) * 2017-01-24 2018-07-20 腾讯科技(深圳)有限公司 视频通信方法及视频通信装置
US10096089B2 (en) * 2017-01-04 2018-10-09 Facebook, Inc. Accelerated skin smoothing effect
US20180367673A1 (en) * 2016-12-27 2018-12-20 Bronson Picket Enhanced communication using variable length strings of alphanumerics, symbols, and other input

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917105A (zh) * 2012-10-17 2013-02-06 中国联合网络通信集团有限公司 呼叫信息处理方法和终端设备
CN107623830A (zh) * 2016-07-15 2018-01-23 掌赢信息科技(上海)有限公司 一种视频通话方法及电子设备
CN106528236A (zh) * 2016-11-11 2017-03-22 努比亚技术有限公司 内存加速白名单的配置方法及装置
US20180367673A1 (en) * 2016-12-27 2018-12-20 Bronson Picket Enhanced communication using variable length strings of alphanumerics, symbols, and other input
US10096089B2 (en) * 2017-01-04 2018-10-09 Facebook, Inc. Accelerated skin smoothing effect
CN108304753A (zh) * 2017-01-24 2018-07-20 腾讯科技(深圳)有限公司 视频通信方法及视频通信装置
CN107864357A (zh) * 2017-09-28 2018-03-30 努比亚技术有限公司 视频通话特效控制方法、终端及计算机可读存储介质
CN107948667A (zh) * 2017-12-05 2018-04-20 广州酷狗计算机科技有限公司 在直播视频中添加显示特效的方法和装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188712A (zh) * 2019-06-03 2019-08-30 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN110188712B (zh) * 2019-06-03 2021-10-12 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN112188235A (zh) * 2019-07-05 2021-01-05 上海交通大学 媒体处理方式的选择方法及媒体处理方法
US11973994B2 (en) 2019-07-05 2024-04-30 Shanghai Jiaotong University Media processing method
CN111010526A (zh) * 2019-11-11 2020-04-14 珠海格力电器股份有限公司 一种视频通讯中的互动方法及装置
CN110896450A (zh) * 2019-11-13 2020-03-20 维沃移动通信有限公司 一种人物图像的处理方法及电子设备
CN112752161B (zh) * 2020-01-13 2023-10-13 腾讯科技(深圳)有限公司 一种基于实时通信的互动方法、社交应用终端及相关装置
CN112752161A (zh) * 2020-01-13 2021-05-04 腾讯科技(深圳)有限公司 一种基于实时通信的互动方法、社交应用终端及相关装置
CN111614926A (zh) * 2020-05-28 2020-09-01 腾讯科技(深圳)有限公司 网络通话方法、装置、计算机设备和存储介质
CN111953905B (zh) * 2020-08-26 2021-11-16 维沃移动通信有限公司 美颜功能开启方法、装置、电子设备及可读存储介质
CN111953905A (zh) * 2020-08-26 2020-11-17 维沃移动通信有限公司 美颜功能开启方法、装置及电子设备
CN112333464B (zh) * 2020-10-30 2022-08-02 北京字跳网络技术有限公司 一种交互数据生成方法、装置以及计算机存储介质
CN112333473B (zh) * 2020-10-30 2022-08-23 北京字跳网络技术有限公司 一种交互方法、装置以及计算机存储介质
CN112333464A (zh) * 2020-10-30 2021-02-05 北京字跳网络技术有限公司 一种交互数据生成方法、装置以及计算机存储介质
CN112333473A (zh) * 2020-10-30 2021-02-05 北京字跳网络技术有限公司 一种交互方法、装置以及计算机存储介质
CN112565913A (zh) * 2020-11-30 2021-03-26 维沃移动通信有限公司 视频通话方法、装置和电子设备

Also Published As

Publication number Publication date
CN109831636B (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN109831636A (zh) 互动视频控制方法、终端及计算机可读存储介质
CN106530227B (zh) 图像复原方法及装置
CN105100609B (zh) 移动终端和拍摄参数的调节方法
CN105430295B (zh) 图像处理装置及方法
US20220150403A1 (en) Input Method and Electronic Device
CN104902185B (zh) 拍摄方法及装置
CN105959554B (zh) 视频拍摄装置及方法
US11470246B2 (en) Intelligent photographing method and system, and related apparatus
WO2019174628A1 (zh) 拍照方法及移动终端
CN105635452B (zh) 移动终端及其联系人标识方法
CN112580400B (zh) 图像选优方法及电子设备
WO2010057683A1 (en) Face recognition based privacy filter for mobile devices
CN109788268A (zh) 终端及其白平衡校正控制方法、及计算机可读存储介质
CN105513021B (zh) 图像去噪装置和方法
CN109842723A (zh) 终端及其屏幕亮度控制方法、及计算机可读存储介质
CN109413326A (zh) 拍照控制方法及相关产品
CN109218626A (zh) 一种拍照方法及终端
CN108600647A (zh) 拍摄预览方法、移动终端及存储介质
CN110059211B (zh) 记录用户情感的方法及相关装置
CN108965697A (zh) 一种拍摄控制方法、终端及计算机可读存储介质
CN117413245A (zh) 显示控制方法、电子设备及计算机存储介质
CN112583957A (zh) 电子设备的显示方法、电子设备与计算机可读存储介质
CN108063859A (zh) 一种自动拍照控制方法、终端及计算机存储介质
CN108628644A (zh) 一种应用的启动方法、装置和移动终端
CN112614500A (zh) 回声消除方法、装置、设备及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant