CN111580671A - 视频图像处理方法及相关装置 - Google Patents

视频图像处理方法及相关装置 Download PDF

Info

Publication number
CN111580671A
CN111580671A CN202010400085.8A CN202010400085A CN111580671A CN 111580671 A CN111580671 A CN 111580671A CN 202010400085 A CN202010400085 A CN 202010400085A CN 111580671 A CN111580671 A CN 111580671A
Authority
CN
China
Prior art keywords
objects
information
user
target object
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010400085.8A
Other languages
English (en)
Inventor
方攀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010400085.8A priority Critical patent/CN111580671A/zh
Publication of CN111580671A publication Critical patent/CN111580671A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/053Detail-in-context presentations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了一种视频图像处理方法及相关装置,应用于终端,包括:通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息;在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息。本申请实施例根据用户的注视点信息确定用户在视频录制过程中注视的目标物体,进而可以灵活地根据用户注视的目标物体确定焦平面,实现视频录制过程中对图像的虚化处理。

Description

视频图像处理方法及相关装置
技术领域
本申请涉及移动终端技术领域,具体涉及一种视频图像处理方法及相关装置。
背景技术
目前在视频录制过程中,常用的视频虚化技术主要是根据对焦区域的拍摄主体进行虚化,系统根据拍摄模式识别视频录制界面中的拍摄主体,或者通过拍摄用户的手动操作去识别视频录制界面的拍摄主体,然后将拍摄主体所在平面作为焦平面,基于拍摄主体的位置计算景深,得到视频录制界面的深度信息,进而根据深度信息对拍摄主体以外的部分进行虚化处理,从而可以突出拍摄主体,但是拍摄主体是由系统去识别的,并不是用户当前注视的或者是用户感兴趣的,用户在视频录制的过程中一般视线会集中在自己感兴趣的物体上。
发明内容
本申请实施例提供了一种视频图像处理方法及相关装置,有利于在视频录制过程中根据用户注视的目标物体实现对视频录制图像的虚化处理。
第一方面,本申请实施例提供一种视频图像处理方法,其特征在于,应用于终端,所述方法包括:
在屏幕上显示摄像头当前取景范围内的多个物体的影像信息;
其中,所述多个物体包括通过眼球追踪功能确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
第二方面,本申请实施例提供一种视频图像处理装置,应用于终端,
所述视频处理装置包括获取单元和显示单元,其中,
所述获取单元,用于通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息;
所述显示单元,用于在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;
其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
第三方面,本申请实施例提供一种终端,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面任一方法中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面任一方法中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面任一方法中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
可以看出,本申请实施例中,终端先通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息,再在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。由于目标物体是通过眼球追踪功能确定的用户注视的物体,将目标物体作为拍摄主体,准确识别目标物体所在平面为焦平面,进而得到虚化处理过后的影像信息,极大地提高了视频虚化的准确率,同时用户在视频录制过程中可以通过眼球转动随时切换对焦物体,提升了视频录制的灵活性和用户对视频图像虚化处理的满意度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的终端的一种结构示意图;
图1B是本申请实施例提供的终端的一种软硬件系统架构的示意图;
图1C是本申请实施例提供的终端的另一种结构示意图;
图1D是本申请实施例提供的终端侧边框设置射灯的示意图;
图2是本申请实施例提供的一种视频录制界面的示例图;
图3是本申请实施例提供的一种根据用户注视点信息确定目标物体的示例图;
图4是本申请实施例提供的一种根据目标物体对视频录制界面虚化处理的示例图;
图5是本申请实施例提供的一种确定视频录制界面多个物体深度信息的示例图;
图6是本申请实施例提供的一种对深度信息进行更新后的示例图;
图7是本申请实施例提供的一种根据注视点信息更新目标物体的示例图;
图8是本申请实施例提供的一种虚化处理过程的流程示意图;
图9是本申请实施例提供的一种视频图像处理方法的流程示意图;
图10是本申请实施例提供的另一种视频图像处理方法的流程示意图;
图11是本申请实施例提供的一种视频图像处理装置的分布式功能单元框图;
图12是本申请实施例提供的一种视频图像处理装置的集成式功能单元框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了更好地理解本申请实施例的方案,下面先对本申请实施例可能涉及的相关术语和概念进行介绍。
(1)影像信息,屏幕上显示的由摄像头拍摄到的取景范围内的多个物体的影像,包括目标物体和每个物体的局部影像信息,影像信息中包括虚化显示后的物体和没有虚化显示的目标物体。
(2)眼球追踪又称为眼球跟踪、人眼追踪/跟踪、视线追踪/跟踪、注视点追踪/跟踪等,是指基于融合图像采集、视线估计技术来确定用户注视方向以及注视点的机制。
(3)目标物体,摄像头取景范围内的多个物体中,用户视线注视的物体,通常为用户关注度较高、感兴趣的物体,目标物体的影像不需要进行虚化处理。
(4)局部影像信息,摄像头取景范围内的多个物体中,除目标物体之外的其他物体的局部影像,局部影像为经过虚化处理后得到的影像。
(5)深度信息,根据除目标物体之外的其他物体和目标物体之间的距离,确定的每个物体的深度信息,深度信息关联每个物体的虚幻处理程度。
下面分别从软硬件运行环境(第一部分)、示例应用场景(第二部分)、关键技术实现(第三部分)以及权利要求保护范围(第四部分)四个方面全面介绍本申请实施例。
第一部分,本申请所公开的视频图像处理技术的软硬件运行环境介绍如下。
请参考图1A,其示出了本申请一个示例性实施例提供的终端100的结构方框图。该终端 100可以是具备通信能力的电子设备,该电子设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(User Equipment,UE),移动台(Mobile Station,MS),终端设备(terminal device)等等。本申请中的终端100可以包括一个或多个如下部件:处理器110、存储器120 和输入输出设备130。
处理器110可以包括一个或者多个处理核心。处理器110利用各种接口和线路连接整个终端100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端100的各种功能和处理数据。处理器110 可以包括一个或多个处理单元,例如:处理器110可以包括中央处理器(CentralProcessing Unit, CPU)、应用处理器(application processor,AP)、调制解调处理器、图形处理器(graphics processing unit,GPU)、图像信号处理器(image signal processor,ISP)、控制器、视频编解码器、数字信号处理器(digital signal processor,DSP)、基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,控制器可以是终端100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。视频编解码器用于对数字视频压缩或解压缩。终端 100可以支持一种或多种视频编解码器。这样,终端100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3, MPEG4等。NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU 可以实现终端100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
处理器110中可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免重复存取,减少处理器110的等待时间,提高系统效率。
处理器110可以包括一个或多个接口,例如集成电路(inter-integratedcircuit,I2C)接口,集成电路内置音频(inter-integrated circuit sound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universalasynchronous receiver/transmitter, UART)接口,移动产业处理器接口(mobileindustry processor interface,MIPI),通用输入输出(general-purpose input/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。处理器110可以包含多组I2C接口,通过不同的I2C 接口可以分别耦合触摸传感器,充电器,闪光灯,摄像头等。例如:处理器110可以通过I2C 接口耦合触摸传感器,使处理器110与触摸传感器通过I2C接口通信,实现终端100的触摸功能。
I2S接口可以用于音频通信。处理器110可以包含多组I2S接口,通过I2S接口与音频模块耦合,实现处理器110与音频模块之间的通信。音频模块可以通过I2S接口向无线通信模块传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。音频模块与无线通信模块可以通过PCM接口耦合,具体可以通过PCM接口向无线通信模块传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。UART接口通常被用于连接处理器110与无线通信模块。例如:处理器110通过UART接口与无线通信模块中的蓝牙模块通信,实现蓝牙功能。音频模块可以通过UART接口向无线通信模块传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏、摄像头等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(display serialinterface,DSI) 等。在一些实施例中,处理器110和摄像头通过CSI接口通信,实现终端100的拍摄功能。处理器110和显示屏通过DSI接口通信,实现终端100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头、显示屏、无线通信模块、音频模块、传感器模块等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口是符合USB标准规范的接口,具体可以是Mini USB接口、Micro USB接口、USB Type C接口等。USB接口可以用于连接充电器为终端100充电,也可以用于终端100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,上述处理器110在实际产品中可以映射为系统级芯片(System ona Chip, SOC),上述处理单元和/或接口也可以不集成到处理器110中,单独通过一块通信芯片或者电子元器件实现对应的功能。上述各模块间的接口连接关系,只是示意性说明,并不构成对终端100的结构的唯一限定。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选地,该存储器120包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等,该操作系统可以是安卓(Android)系统(包括基于 Android系统深度开发的系统)、苹果公司开发的IOS系统(包括基于IOS系统深度开发的系统)或其它系统。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
终端400的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统和IOS系统为例,示例性说明终端400的软件架构。
如图1B所示的设置有Android系统的软硬件系统的架构示意图,存储器120中可存储有Linux内核层220、系统运行库层240、应用框架层260和应用层280,其中,层与层之间通过软件接口通信,Linux内核层220、系统运行库层240和应用框架层260属于操作系统空间。
应用层280属于用户空间,应用层280中运行有至少一个应用程序,这些应用程序可以是操作系统自带的原生应用程序,也可以是第三方开发者所开发的第三方应用程序,具体可以包括密码、眼球追踪、相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用框架层260提供了构建应用层的应用程序可能用到的各种API,开发者也可以通过使用这些API来构建自己的应用程序,比如窗口管理器、内容提供器、视图系统、电话管理器、资源管理器、通知管理器、消息管理器、活动管理器、包管理器、定位管理。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供终端100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,终端振动,指示灯闪烁等。
消息管理器可用于存储各个APP上报的消息的数据,并对各个APP上报的数据进行处理。具体地,消息的数据可包括消息的ID(message ID)、APP的ID(APPID)、消息的处理状态(status)、产生时间(happen time)、消息类型(msg type)及消息描述(description)。其中,消息的处理状态可包括两种:未处理、已处理。当消息的处理状态为未处理时,status字段为0;当消息的处理状态为已处理时,status字段为1。
在一种可能的实现方式中,消息管理器可以是通知管理器的一部分。
系统运行库层240通过一些C/C++库来为Android系统提供了主要的特性支持。如SQLite 库提供了数据库的支持,OpenGL/ES库提供了3D绘图的支持,Webkit库提供了浏览器内核的支持等。在系统运行库层240中还提供有安卓运行时库(Android Runtime),它主要提供了一些核心库,能够允许开发者使用Java语言来编写Android应用。
Linux内核层220为终端100的各种硬件提供了底层的驱动,如显示驱动、音频驱动、摄像头驱动、蓝牙驱动、Wi-Fi驱动、电源管理等。
应理解,本申请实施例所述的视频图像处理方法既可以应用于安卓系统,也可以应用于其他操作系统,如IOS系统等,此处仅以安卓系统为例进行说明,但不构成限定。
下面结合图1C对目前常见的终端形态进行详细说明,可以理解的是,本申请实施例示意的结构并不构成对终端100的具体限定。在本申请另一些实施例中,终端100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
如图1C所示,终端400包括系统级芯片410,外部存储器接口420,内部存储器421,通用串行总线(universal serial bus,USB)接口430,充电管理模块440,电源管理模块441,电池442,天线1,天线2,移动通信模块450,无线通信模块460,音频模块470,扬声器470A,受话器470B,麦克风470C,耳机接口470D,传感器模块480,按键490,马达491,指示器492,摄像头493,显示屏494,红外发射器495,以及用户标识模块(subscriberidentification module,SIM)卡接口496等。其中传感器模块480可以包括压力传感器480A,陀螺仪传感器480B,气压传感器480C,磁传感器480D,加速度传感器480E,距离传感器480F,接近光传感器480G,指纹传感器480H,温度传感器480J,触摸传感器480K,环境光传感器480L,骨传导传感器480M等。
终端400的无线通信功能可以通过天线1,天线2,移动通信模块450,无线通信模块460,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端400中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块450可以提供应用在终端400上的包括2G/3G/4G/5G/6G等无线通信的解决方案。移动通信模块450可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块450可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块450还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块450的至少部分功能模块可以被设置于处理器440中。在一些实施例中,移动通信模块450的至少部分功能模块可以与处理器440的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器470A,受话器470B等)输出声音信号,或通过显示屏494显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器440,与移动通信模块450或其他功能模块设置在同一个器件中。
无线通信模块460可以提供应用在终端400上的包括无线局域网(wireless localarea networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequencymodulation, FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块460可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块460经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器440。无线通信模块460还可以从处理器440接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,终端400的天线1和移动通信模块450耦合,天线2和无线通信模块 460耦合,使得终端400可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code divisionmultiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(globalnavigation satellite system,GLONASS),北斗卫星导航系统(beidou navigationsatellite system,BDS),准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统 (satellite based augmentation systems,SBAS)。
充电管理模块440用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块440可以通过USB接口430接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块440可以通过终端400 的无线充电线圈接收无线充电输入。充电管理模块440为电池442充电的同时,还可以通过电源管理模块441为终端供电。
电源管理模块441用于连接电池442,充电管理模块440与处理器440。电源管理模块 441接收电池442和/或充电管理模块440的输入,为处理器440,内部存储器421,外部存储器,显示屏494,摄像头493,和无线通信模块460等供电。电源管理模块441还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块441也可以设置于处理器440中。在另一些实施例中,电源管理模块441和充电管理模块440也可以设置于同一个器件中。
终端400通过GPU,显示屏494,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏494和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器440可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏494用于显示图像,视频等。显示屏494包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed, Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端400可以包括1个或N个显示屏494,N为大于1的正整数。本申请实施例中,显示屏494可用于在各个APP的图标上显示红点或数量红点,用于提示用户有新消息待处理。
终端400可以通过ISP,摄像头493,视频编解码器,GPU,显示屏494以及应用处理器等实现拍摄功能。
ISP用于处理摄像头493反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头493中。
摄像头493用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体 (complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端400可以包括1个或N个摄像头493,N为大于1的正整数。
外部存储器接口420可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端400 的存储能力。外部存储卡通过外部存储器接口420与处理器440通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器421可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器440通过运行存储在内部存储器421的指令,从而执行终端400的各种功能应用以及数据处理。内部存储器421可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端400使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器421可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。本申请实施例中,内部存储器421可以用于存储各个APP消息的数据,还可用于存储各个APP对应的红点消除策略。
终端400可以通过音频模块470,扬声器470A,受话器470B,麦克风470C,耳机接口470D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块470用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块470还可以用于对音频信号编码和解码。在一些实施例中,音频模块470可以设置于处理器440中,或将音频模块470的部分功能模块设置于处理器440 中。
扬声器470A,也称“喇叭”,用于将音频电信号转换为声音信号。终端400可以通过扬声器470A收听音乐,或收听免提通话。
受话器470B,也称“听筒”,用于将音频电信号转换成声音信号。当终端400接听电话或语音信息时,可以通过将受话器470B靠近人耳接听语音。
麦克风470C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风470C发声,将声音信号输入到麦克风470C。终端400可以设置至少一个麦克风470C。在另一些实施例中,终端400可以设置两个麦克风 470C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端400还可以设置三个,四个或更多麦克风470C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口470D用于连接有线耳机。耳机接口470D可以是USB接口430,也可以是3.5mm 的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器480A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器480A可以设置于显示屏494。压力传感器480A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器480A,电极之间的电容改变。终端400根据电容的变化确定压力的强度。当有触摸操作作用于显示屏494,终端400根据压力传感器480A 检测所述触摸操作强度。终端400也可以根据压力传感器480A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器480B可以用于确定终端400的运动姿态。在一些实施例中,可以通过陀螺仪传感器480B确定终端400围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器480B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器480B检测终端400抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端400的抖动,实现防抖。陀螺仪传感器480B还可以用于导航,体感游戏场景。
气压传感器480C用于测量气压。在一些实施例中,终端400通过气压传感器480C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器480D包括霍尔传感器。终端400可以利用磁传感器480D检测翻盖皮套的开合。在一些实施例中,当终端400是翻盖机时,终端400可以根据磁传感器480D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器480E可检测终端400在各个方向上(一般为三轴)加速度的大小。当终端400 静止时可检测出重力的大小及方向。还可以用于识别终端姿态,应用于横竖屏切换,计步器等应用。
距离传感器480F,用于测量距离。终端400可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端400可以利用距离传感器480F测距以实现快速对焦。
接近光传感器480G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端400通过发光二极管向外发射红外光。终端400使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端400附近有物体。当检测到不充分的反射光时,终端400可以确定终端400附近没有物体。终端400 可以利用接近光传感器480G检测用户手持终端400贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器480G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器480L用于感知环境光亮度。终端400可以根据感知的环境光亮度自适应调节显示屏494亮度。环境光传感器480L也可用于拍照时自动调节白平衡。环境光传感器480L 还可以与接近光传感器480G配合,检测终端400是否在口袋里,以防误触。
指纹传感器480H用于采集指纹。终端400可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器480J用于检测温度。在一些实施例中,终端400利用温度传感器480J检测的温度,执行温度处理策略。例如,当温度传感器480J上报的温度超过阈值,终端400执行降低位于温度传感器480J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端400对电池442加热,以避免低温导致终端400异常关机。在其他一些实施例中,当温度低于又一阈值时,终端400对电池442的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器480K,也称“触控面板”。触摸传感器480K可以设置于显示屏494,由触摸传感器480K与显示屏494组成触摸屏,也称“触控屏”。触摸传感器480K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏494提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器480K也可以设置于终端400的表面,与显示屏494所处的位置不同。
骨传导传感器480M可以获取振动信号。在一些实施例中,骨传导传感器480M可以获取人体声部振动骨块的振动信号。骨传导传感器480M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器480M也可以设置于耳机中,结合成骨传导耳机。音频模块470可以基于所述骨传导传感器480M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器480M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键490包括开机键,音量键等。按键490可以是机械按键。也可以是触摸式按键。终端400可以接收按键输入,产生与终端400的用户设置以及功能控制有关的键信号输入。
马达491可以产生振动提示。马达491可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏494不同区域的触摸操作,马达491也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器492可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等,此外,指示器492可以包括如图1D所示的设置于终端100侧边框的射灯。
红外发射器495可以是红外灯,可以发射红外光照射在人脸上从而在人眼上形成光斑。
SIM卡接口496用于连接SIM卡。SIM卡可以通过插入SIM卡接口496,或从SIM卡接口496拔出,实现和终端400的接触和分离。终端400可以支持1个或N个SIM卡接口,N 为大于1的正整数。SIM卡接口496可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口496可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM 卡接口496也可以兼容不同类型的SIM卡。SIM卡接口496也可以兼容外部存储卡。终端400 通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,终端400采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在终端400中,不能和终端400分离。
第二部分,本申请实施例所公开的示例应用场景介绍如下。
针对用户视线的眼球追踪区域可以与屏幕显示区域重叠,也可以大于屏幕显示区域,或者小于屏幕显示区域,本申请中主要针对眼球追踪区域和屏幕显示区域重叠的情况。
图2示例性示出了终端100的屏幕上显示的包括摄像头取景范围内的多个物体的视频录制界面,视屏录制界面包括进行虚化处理前的影像和进行虚化处理后的影像,进行虚化处理后的影像便是多个物体的影像信息。如图3所示,视频录制界面的包括物体A、物体B、物体C、物体D、物体E、物体F和物体G,物体A、物体B、物体C、物体D、物体E、物体 F和物体G分别位于不同的显示区域,物体A、物体B、物体C、物体D、物体E、物体F 和物体G和电子设备之间的距离可能是相同的,也可能是不相同的,用户在注视屏幕显示的视频录制界面时,用户视线可能会集中在一个物体上,通过对该物体进行突出显示,有利于得到更好的图像处理效果,因此,需要通过眼球追踪功能确定物体A、物体B、物体C、物体D、物体E、物体F和物体G中用户注视的目标物体。
图3示例性示出了当用户注视终端100的屏幕上显示的视频录制界面时,通过眼球追踪功能确定用户注视的目标物体,具体是确定用户针对视频录制界面的注视点信息,注视地信息包括注视点的位置信息和注视时长信息,图3中标示出了用户主要的注视点分布位置,为了便于理解,图3中只展示出了部分注视点的位置信息,仅作为一种参考,此处不作任何限定。根据注视点的分布情况,可见,在物体A、物体B、物体C、物体D、物体E、物体F 和物体G中,物体D所在显示区域上包括最多的用户注视点,由于用户的注视点较多的分布在物体D所在的显示区域上,可见用户对物体D最为关注,物体D可能是用户当前在视频录制过程中最感兴趣的目标物体,因此,可以对除去物体D的物体A、物体B、物体C、物体E、物体F和物体G进行虚化处理。
图4示例性示出了当确定了用户注视的目标物体为物体D时,对当前屏幕显示的视频录制界面进行虚化处理,得到包括在物体A、物体B、物体C、物体D、物体E、物体F和物体G的影像信息,可见,对于需要突出显示的物体D,不需要进行虚化处理,对于物体A、物体B、物体C、物体E、物体F和物体G进行虚化处理,具体虚化处理的程度由于物体A、物体B、物体C、物体E、物体F和物体G的深度信息决定的,物体A、物体B、物体C、物体E、物体F和物体G的深度信息包括和物体D所在焦平面之间的距离,其中,为了便于表示已经对物体A、物体B、物体C、物体E、物体F和物体G进行了虚化处理,用虚化指数来表示,其中,通过查找预设的距离和虚化程度之间的映射关系,确定物体A的虚化指数为10,物体B的虚化指数为5,物体C的虚化指数为15,物体E的虚化指数为10,物体F 的虚化指数为25,物体G的虚化指数为20。一般来说,距离焦平面距离越近时,虚化程度越弱,距离焦平面距离越远时,虚化程度越高,图4中用虚化指数表示对物体虚化处理的程度,虚化指数越高代表虚化程度越高。
图5示例性示出了摄像头取景范围内多个物体和终端之间的位置关系,在确定物体D所在平面为焦平面之后,根据距离确定物体A和物体G为物体D的近点,即相对于物体D更靠近终端,物体B、物体C、物体E和物体F为物体D的远点,即相对于物体D更远离终端。可见,物体A和物体E和焦平面之间的距离是相同的,因此物体A和物体E的虚化程度是相同的,但是成像大小不同,因为物体A相较于物体E距离终端的距离更近。
图6示例性示出了在视频录制过程中当物体D和电子设备之间的距离发生变化时,对当前屏幕显示的视频录制界面进行虚化处理,无物体D所在平面为焦平面,物体A、物体B、物体C、物体E、物体F和物体G的深度信息是由物体和焦平面之间的距离确定的,深度信息又决定了物体的虚化程度,因此,当物体D和电子设备之间的距离发生变化时,焦平面和电子设备之间的距离也会发生变化,物体A、物体B、物体C、物体E、物体F和物体G的深度信息同步发生变化,当物体A、物体B、物体C、物体E、物体F和物体G的深度信息发生变化后,需要重新对物体A、物体B、物体C、物体E、物体F和物体G进行虚化处理以得到物体A、物体B、物体C、物体E、物体F和物体G各自的局部影像信息。如图6所示,当物体D和终端之间的距离减小时,物体D的近点包括物体A、物体G和焦平面之间的距离减小,即虚化指数对应降低,物体D的远点包括的物体B、物体D、物体E、物体F和焦平面之间的距离增大,即虚化指数对应增大,根据更新后的深度信息得到每个物体的局部影像信息,从而得到多个物体的影像信息。可见,物体A的虚化指数由10更新为8,物体G 的虚化指数由20更新为18,物体B的虚化指数由5更新为7,物体C的虚化指数由15更新为17,物体E的虚化指数由10更新为12,物体F的虚化指数由25更新为27。
图7示例性示出了在视频录制过程中,用户注视的目标物体由物体D变为物体B,在视频录制过程中,通过眼球追踪实时监测用户在视频录制界面的注视点,从而定位到用户不再注视物体D,并且注视物体B时,此时需要以物体B所在平面为焦平面,确定物体A、物体C、物体D、物体E、物体F和物体G的深度信息,从而先对物体A、物体C、物体E、物体 F和物体G进行虚化处理的得到局部影像信息,生成影像信息。
第三部分,本申请实施例所公开的关键技术实现介绍如下。
结合前述实施例,以相机应用的视频录制场景为例,示例性说明终端突出显示物体D的软件以及硬件的工作流程。
在一个可能的实施例中,如图8所示,终端基于眼球追踪功能确定用户注视物体D时突出物体D的过程可以包括以下几个步骤:
S11,红外发射器495发射红外光,红外光照射到用户的人脸在人眼中形成光斑。
具体的,内核层的红外驱动可以使能红外发射器495发射红外光。
S12,摄像头493采集包含光斑的瞳孔的人眼图像,并将人眼图像发送给应用层的眼球追踪应用。
具体的,内核层的摄像头驱动可以使能终端的前置摄像头,通过前置摄像头采集人眼图像。
可以理解的是,眼球追踪应用可以是出厂预设的系统级应用。
S13,眼球追踪应用对人眼图像进行处理,计算用户的视线方向和注视点,并向相机应用发送注视点。
S14,相机应用根据该注视点确定用户注视的目标物体为物体D,生成针对物体A、物体 B、物体C、物体E、物体F和物体G的虚化显示指令,并向应用框架层的视图系统发送该突出虚化显示指令。
S15,应用框架层的视图系统调用内核层的显示驱动,通过显示屏494在相机应用的视频录制界面虚化显示物体A、物体B、物体C、物体E、物体F和物体G。
第四部分,本申请实施例所公开的权利要求保护范围介绍如下。
请参阅图9,图9是本申请实施例提供了一种视频图像处理方法的流程示意图,如图所示,本视频图像处理方法包括以下操作。
S901,通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息。
其中,通过眼球追踪功能获取到的用户注视点信息,可以用于确定用户在屏幕上显示的多个物体中注释的目标物体,从而以目前物体所在平面为焦平面,确定每个物体的深度信息,根据深度信息对每个物体进行虚化处理得到每个物体的局部影像信息。
S902,在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;
其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
举例说明,当用户打开相机功能进行视频录制等需要使用摄像头的时候,此时,启用眼球追踪功能,电子设备显示屏上显示摄像头当前取景范围内的多个物体的影像信息,通过眼球追踪功能对用户的眼球信号进行抓取以及分析,得到用户针对视频录制界面的注视点信息,对用户的注视点信息进行分析,得到用户注视的目标物体,用户注视的物体一般都是用户感兴趣,用户当前关注的物体,以目标物体所在平面为焦平面,计算其他物体的深度信息并对其他物体进行虚化处理得到其他物体的局部影像信息,从而得到已经经过虚化处理后的影像信息,影像信息中,目标物体没有经过虚化处理,具有突出显示的效果。
此外,眼球追踪功能可以实时识别用户注视的物体,因为用户在视频录制的过程中,视线可能不会长时间停留在同一个物体上,因此,需要实时根据获取到的用户注视点信息,确定用户当前注视的目标物体是否发生变化,如果检测到用户注视的目标物体由物体A切换为物体B时,此时需要根据物体B所在平面重新确定焦平面,并根据重新确定的焦平面对其他物体的深度信息进行跟新,得到其他物体的局部影像信息,进而得到包括其他物体和物体B 的整体影像。
此外,由于需要通过眼球追踪功能实时确定用户注视的目标物体,对用户的注视点信息进行分析需要一定的处理时间,因此当用户视线发生转移后,不能马上定位到用户当前注视的物体,有一定的处理延迟,电子设备可以根据在视频录制过程中的历史记录对用户的注视习惯进行学习,获取用户的注视习惯,例如用户的注视优先级人物大于动物大于植物大于物品,用户一般会看近景物体还是远景物体,通过对用户的注视习惯进行学习可以更快的定位到目标物体,再结果眼球追踪功能进行实时修正,可以在视频录制过程中更快地实现对视频录制界面的虚化处理。
可以看出,本申请实施例中,终端先通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息,再在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。由于目标物体是通过眼球追踪功能确定的用户注视的物体,将目标物体作为拍摄主体,准确识别目标物体所在平面为焦平面,进而得到虚化处理过后的影像信息,极大地提高了视频虚化的准确率,同时用户在视频录制过程中可以通过眼球转动随时切换对焦物体,提升了视频录制的灵活性和用户对视频图像虚化处理的满意度。
在一个可能的示例中,所述用户注视的目标物体通过如下步骤确定:
通过眼球追踪功能获取用户针对所述影像信息对应的视频录制界面的注视点信息,所述注视点信息包括注视点的位置信息和注视时长信息;根据所述注视点信息确定用户对所述当前取景范围内的多个物体的关注度;确定关注度大于预设关注度的物体为所述目标物体。
其中,影像信息对应已经虚化处理过后的图像,视频录制界面包括虚化处理后的图像和未经虚化处理,摄像头直接拍摄到的界面。
其中,目标物体一般来说指一个物体,摄像头当前曲靖范围内包括多个物体时,需要从多个物体中确定用户当前注视的,即用户感兴趣的某一个物体,通过眼球追踪功能可获取用户针对视频录制界面的注视点信息。
可见,本示例中,终端可以根据通过眼球追踪功能获取的用户在视频录制过程中的注视点信息,确定用户在当前取景范围内拍摄到的多个物体中,对每个物体的关注度,根据用户的关注度确定目标物体,有利于将画面聚焦到用户感兴趣的物体上。
在一个可能的示例中,所述根据所述注视点信息确定用户对所述当前取景范围内的多个物体的关注度,包括:根据所述注视点的位置信息确定所述多个物体中每个物体对应的注视点个数;确定所述每个物体包括的注视点个数以及每个注视点的注视时长,确定所述每个物体的注视时长;根据所述注视时长确定用户对所述多个物体的关注度。
具体的,用户的注视点分布在视频录制界面的多个位置,对应多个物体,但是针对目标物体,应该是用户注视点最集中,且注视时间最长的物体,因此,根据注视点的位置信息可以确定视频录制界面包括的多个物体中,每个物体对应的注视点个数,根据每个物体包括的注视点个数,以及每个注视点对应的注视时长,通过累计取均值的方式可以确定每个物体的注视时长,注视时长和用户对该物体的关注度成正比关系,或者,也可以仅仅根据注视点个数确定用户对该物体的关注度,注视点个数和关注度成正比关系。
可见,本示例中,终端根据用户对每个物体的关注度确定用户注视的目标物体,用户对每个物体的兴趣是根据用户对每个物体的注视点信息得到的,通过对用户的注视点信息进行分析,确定用户在屏幕上注视点较集中的位置以及注视时间较长为位置,该位置对应显示的物体即为目标物体。
在一个可能的示例中,所述物体自身的深度信息通过如下步骤确定:确定除所述目标物体之外的每个物体的多个特征点;计算所述每个物体的多个特征点和所述焦平面的距离信息,得到所述每个物体的深度信息。
其中,以目标物体所在平面为焦平面,除目标物体之外的其他物体的深度信息,由其他物体和焦平面之间的距离决定,具体实现中,可以先确定出目标物体之外的每个物体的多个特征点,每个物体的特征点可以组成该物体轮廓的特征点,或者均匀分布在该物体上的特征点,计算每个特征点和焦平面之间的距离便可得到每个物体的深度信息。
其中,所述每个物体的局部影像信息通过如下步骤确定:根据所述每个物体包括的多个特征点和所述焦平面之间的距离,确定所述每个物体的虚化程度;按照所述虚化程度对所述每个物体进行虚化处理,得到所述每个物体的局部影像信息,其中,所述距离的数值和虚化程度成正比关系。在得到每个物体的深度信息之后,根据每个物体包括的多个特征点和焦平面之间的距离,确定每个物体的虚化程序,按照该虚化程度对每个物体进行虚化处理,便可得到每个物体的局部影像信息。
其中,对于图像的虚化处理,一般来说越远离焦平面,弥散圆越大颗,成像也就越牧户,越靠近焦平面的位置的成像是越清晰的,越远离焦平面的位置的成像是越模糊的,虚化比较理想的效果就是景深范围之外虽然都是模糊的,但是模糊程度是有差异的,因此,本申请中根据每个物体的深度信息来确定每个物体虚化处理的程度,每个物体的深度信息不同,虚化处理的程度自然也不同。
可见,本示例中,终端能获取出目标物体之外的每个物体的多个特征点,通过计算多个特征点和焦平面之间的距离,得到每个物体的深度信息,从而可以根据每个物体的深度信息,对每个物体进行差异化的虚化处理,从而使影像信息具有更好的虚化处理效果。
在一个可能的示例中,所述方法还包括:在检测到所述目标物体和所述终端之间的距离发生变化时,根据所述变化更新所述焦平面;根据所述更新后的焦平面对所述每个物体的深度信息进行更新。
其中,目标物体处于移动状态,或者终端处于移动状态时,目标物体和终端之间的距离发生变化,对应焦平面也发生的变化,而除目标物体之外的其他物体的深度信息是由物体和焦平面之间的距离决定的,因此需要更新每个物体的深度信息,并基于更新后的深度信息对每个物体进行虚化处理从而得到每个物体的局部影像信息。
可见,本示例中,终端能够实时检测和目标物体之间的距离,并且在距离发生变化时及时更新每个物体的深度信息,从而对影像信息进行更新。
请参阅图10,图10是本申请实施例提供了一种视频图像处理方法的流程示意图,如图所示,本视频图像处理方法包括以下操作。
S1001,在检测到当前屏幕显示界面为视频录制界面时,通过眼球追踪功能从屏幕上显示的所述摄像头拍摄到的多个物体中,确定用户注释的目标物体。
S1002,以所述目标物体所在平面为焦平面,计算所述多个物体中除所述目标物体之外的每个物体的深度信息。
S1003,根据所述每个物体的深度信息对所述每个物体进行虚化处理,得到所述每个物体的局部影像信息。
S1004,显示所述多个物体的影像信息,所述影像信息包括所述每个物体的局部影像信息。
可以看出,本申请实施例中,终端首先在检测到当前屏幕显示界面为视频录制界面时,通过眼球追踪功能从屏幕上显示的所述摄像头拍摄到的多个物体中,确定用户注释的目标物体,其次,以所述目标物体所在平面为焦平面,计算所述多个物体中除所述目标物体之外的每个物体的深度信息,然后,根据所述每个物体的深度信息对所述每个物体进行虚化处理,得到所述每个物体的局部影像信息,最后,显示所述多个物体的影像信息,所述影像信息包括所述每个物体的局部影像信息。由于将目标物体作为拍摄主体,准确识别目标物体所在平面为焦平面,进而得到进行虚化处理过后的每个物体的局部影像信息,极大地提高了视频虚化的准确率,有利于用户在视频录制过程中可以通过眼球转动随时切换对焦物体,提升了视频录制的灵活性和视频图像的虚化效果。
在一个可能的示例中,所述方法还包括:检测到当前屏幕显示界面由视频录制界面切换到其他功能界面时,控制后台录制视频时保持目标物体所在平面为焦平面,其他功能界面为除所述摄像头的取景界面之外的任意功能界面。
其中,终端在视频录制过程中,当前屏幕的显示界面由视频录制界面切换到其他功能界面时,终端可以控制后台录制视频时保持目标物体所在平面为焦平面,其他功能界面为出摄像头取景界面之外的任务功能界面,例如,用户在视频录制过程中,接听到来电,或者短信通知时,此时屏幕的显示界面切换到来电显示界面或者短信显示界面,此时摄像头若仍然保持在视频录制状态,此时不能获取到用户针对视频录制界面的注视点信息,因此终端可以保持以目标物体所在平面为焦平面。
可见,本示例中,针对屏幕显示界面由由视频录制界面强制被切换到其他功能界面时,终端仍然可以保持以目标物体所在平面为焦平面,对视频录制界面进行虚化处理。
在一个可能的示例中,所述方法还包括:通过所述眼球追踪功能检测到用户人眼不再注视屏幕时,对当前视频录制界面显示的多个物体进行识别;确定显示的多个物体中是否包括所述目标物体;若是,以所述目标物体所在平面为所述焦平面;若否,根据显示的多个物体确定用户待注视的物体,以所述待注视的物体所在平面为所述焦平面。
其中,当用户因为某些情况,无法继续注视屏幕时,此时无法再根据用户的注视点信息确定以当前取景范围内的哪个物体为目标物体,进行视频录制界面的虚化处理。此时,终端对当前视频录制界面显示的多个物体进行识别,确定显示界面中是否包括目标物体,如果包括,则可以以目标物体所在平面为焦平面,如果不包括,则可以根据显示的多个物体确定用户待注视的物体,以待注视的物体所在平面为焦平面进行视频录制过程中对图像的虚化处理。
本申请实施例提供一种视频图像处理装置,该视频图像处理装置可以为终端100。具体的,视频图像处理装置用于执行以上视频图像处理方法的步骤。本申请实施例提供的视频图像处理装置可以包括相应步骤所对应的模块。
本申请实施例可以根据上述方法示例对视频图像处理装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图11示出上述实施例中所涉及的视频图像处理装置的一种可能的结构示意图。如图11所示,视频图像处理装置11包括获取单元 111和显示单元112。
获取单元111,用于通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息;
显示单元112,用于在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;
其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。当然,本申请实施例提供的视频图像处理装置包括但不限于上述模块,例如:视频图像处理装置还可以包括存储单元113。存储单元113可以用于存储该视频图像处理装置的程序代码和数据。
在采用集成的单元的情况下,本申请实施例提供的视频图像处理装置的结构示意图如图 12所示。在图12中,视频图像处理装置12包括:处理模块122和通信模块121。处理模块 122用于对视频图像处理装置的动作进行控制管理,例如,执行获取单元111和显示单元112 执行的步骤,和/或用于执行本文所描述的技术的其它过程。通信模块121用于支持视频图像处理装置与其他设备之间的交互。如图12所示,视频图像处理装置还可以包括存储模块123,存储模块123用于存储视频图像处理装置的程序代码和数据,例如存储上述存储单元102所保存的内容。
其中,处理模块122可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),ASIC,FPGA 或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。通信模块121可以是收发器、RF电路或通信接口等。存储模块123可以是存储器。
其中,上述方法实施例涉及的各场景的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。上述视频图像处理装置11和视频图像处理装置12均可执行上述图9 或图10所示的视频图像处理方法。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括终端。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括终端。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (11)

1.一种视频图像处理方法,其特征在于,应用于终端,所述方法包括:
通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息;
在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;
其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
2.根据权利要求1所述的方法,其特征在于,所述注视点信息包括注视点的位置信息和注视时长信息;所述用户注视的目标物体通过如下步骤确定:
根据所述注视点信息确定用户对所述当前取景范围内的多个物体的关注度;
确定关注度大于预设关注度的物体为所述目标物体。
3.根据权利要求2所述的方法,其特征在于,所述根据所述注视点信息确定用户对所述当前取景范围内的多个物体的关注度,包括:
根据所述注视点的位置信息确定所述多个物体中每个物体对应的注视点个数;
确定所述每个物体包括的注视点个数以及每个注视点的注视时长,确定所述每个物体的注视时长;
根据所述注视时长确定用户对所述多个物体的关注度。
4.根据权利要求1所述的方法,其特征在于,所述物体自身的深度信息通过如下步骤确定:
确定除所述目标物体之外的每个物体的多个特征点;
计算所述每个物体的多个特征点和所述焦平面的距离信息,得到所述每个物体的深度信息。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在检测到所述目标物体和所述终端之间的距离发生变化时,根据所述变化更新所述焦平面;
根据所述更新后的焦平面对所述每个物体的深度信息进行更新。
6.一种视频图像处理方法,其特征在于,应用于终端,所述方法包括:
在检测到当前屏幕显示界面为视频录制界面时,通过眼球追踪功能从屏幕上显示的所述摄像头拍摄到的多个物体中,确定用户注释的目标物体;
以所述目标物体所在平面为焦平面,计算所述多个物体中除所述目标物体之外的每个物体的深度信息;
根据所述每个物体的深度信息对所述每个物体进行虚化处理,得到所述每个物体的局部影像信息;
显示所述多个物体的影像信息,所述影像信息包括所述每个物体的局部影像信息。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
检测到当前屏幕显示界面由视频录制界面切换到其他功能界面时,控制后台录制视频时保持目标物体所在平面为焦平面,其他功能界面为除所述摄像头的取景界面之外的任意功能界面。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
通过所述眼球追踪功能检测到用户人眼不再注视屏幕时,对当前视频录制界面显示的多个物体进行识别;
确定显示的多个物体中是否包括所述目标物体;
若是,以所述目标物体所在平面为所述焦平面;
若否,根据显示的多个物体确定用户待注视的物体,以所述待注视的物体所在平面为所述焦平面。
9.一种视频图像处理装置,其特征在于,应用于终端,所述视频处理装置包括获取单元和显示单元,其中,
所述获取单元,用于通过眼球追踪功能获取用户针对摄像头当前取景范围内的多个物体的注视点信息,所述注视点信息用于确定所述多个物体的局部影像信息;
所述显示单元,用于在屏幕上显示所述多个物体的影像信息,所述影像信息包括所述多个物体的局部影像信息;
其中,所述多个物体包括通过根据所述注视点信息确定的用户注视的目标物体,所述多个物体中除所述目标物体之外的每个物体的局部影像信息是根据物体自身的深度信息进行虚化处理而得到,所述物体自身的深度信息是以所述目标物体所在平面为焦平面进行计算而得到的。
10.一种终端,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-5任一项或权利要求6-8任一项所述的方法中的步骤的指令。
11.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-5任一项或权利要求6-8任一项所述的方法。
CN202010400085.8A 2020-05-12 2020-05-12 视频图像处理方法及相关装置 Pending CN111580671A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010400085.8A CN111580671A (zh) 2020-05-12 2020-05-12 视频图像处理方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010400085.8A CN111580671A (zh) 2020-05-12 2020-05-12 视频图像处理方法及相关装置

Publications (1)

Publication Number Publication Date
CN111580671A true CN111580671A (zh) 2020-08-25

Family

ID=72126585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400085.8A Pending CN111580671A (zh) 2020-05-12 2020-05-12 视频图像处理方法及相关装置

Country Status (1)

Country Link
CN (1) CN111580671A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113965550A (zh) * 2021-10-15 2022-01-21 天津大学 智能交互式远程辅助视频系统
CN115474003A (zh) * 2021-04-30 2022-12-13 苹果公司 用于更改视觉媒体的用户界面
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207664A (zh) * 2012-01-16 2013-07-17 联想(北京)有限公司 一种图像处理方法和设备
CN108663799A (zh) * 2018-03-30 2018-10-16 蒋昊涵 一种vr图像的显示控制系统及其显示控制方法
WO2019105298A1 (zh) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 图像虚化处理方法、装置、移动设备及存储介质
CN110225252A (zh) * 2019-06-11 2019-09-10 Oppo广东移动通信有限公司 拍照控制方法及相关产品
CN110245250A (zh) * 2019-06-11 2019-09-17 Oppo广东移动通信有限公司 图像处理方法及相关装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207664A (zh) * 2012-01-16 2013-07-17 联想(北京)有限公司 一种图像处理方法和设备
WO2019105298A1 (zh) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 图像虚化处理方法、装置、移动设备及存储介质
CN108663799A (zh) * 2018-03-30 2018-10-16 蒋昊涵 一种vr图像的显示控制系统及其显示控制方法
CN110225252A (zh) * 2019-06-11 2019-09-10 Oppo广东移动通信有限公司 拍照控制方法及相关产品
CN110245250A (zh) * 2019-06-11 2019-09-17 Oppo广东移动通信有限公司 图像处理方法及相关装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
CN115474003A (zh) * 2021-04-30 2022-12-13 苹果公司 用于更改视觉媒体的用户界面
CN113965550A (zh) * 2021-10-15 2022-01-21 天津大学 智能交互式远程辅助视频系统
CN113965550B (zh) * 2021-10-15 2023-08-18 天津大学 智能交互式远程辅助视频系统

Similar Documents

Publication Publication Date Title
CN110506416B (zh) 一种终端切换摄像头的方法及终端
CN115866121B (zh) 应用界面交互方法、电子设备和计算机可读存储介质
CN111510626B (zh) 图像合成方法及相关装置
WO2020029306A1 (zh) 一种图像拍摄方法及电子设备
CN112492193B (zh) 一种回调流的处理方法及设备
CN111580671A (zh) 视频图像处理方法及相关装置
CN113542580B (zh) 去除眼镜光斑的方法、装置及电子设备
CN111399659B (zh) 界面显示方法及相关装置
WO2020024108A1 (zh) 一种应用图标的显示方法及终端
CN111343326A (zh) 获取测试日志的方法及相关装置
CN111563466A (zh) 人脸检测方法及相关产品
CN111556479B (zh) 信息共享方法及相关装置
CN113141483B (zh) 基于视频通话的共享屏幕方法及移动设备
CN113168257B (zh) 锁定触控操作的方法及电子设备
CN113950045B (zh) 签约数据的下载方法和电子设备
CN117009005A (zh) 一种显示方法、汽车和电子设备
CN113645595B (zh) 设备交互方法和装置
CN116017138B (zh) 测光控件显示方法、计算机设备和存储介质
CN116450026B (zh) 用于识别触控操作的方法和系统
CN116048629B (zh) 系统服务切换方法及控制装置、电子设备和存储介质
CN114006976B (zh) 一种界面显示方法及终端设备
CN115150543B (zh) 拍摄方法、装置、电子设备及可读存储介质
CN111801931B (zh) 通话发生srvcc切换时,接通和挂断电话的方法
CN113626115A (zh) 生成表盘的方法及相关装置
CN116028966A (zh) 一种应用的显示方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination