CN107797664A - 内容显示方法、装置及电子装置 - Google Patents

内容显示方法、装置及电子装置 Download PDF

Info

Publication number
CN107797664A
CN107797664A CN201711021162.3A CN201711021162A CN107797664A CN 107797664 A CN107797664 A CN 107797664A CN 201711021162 A CN201711021162 A CN 201711021162A CN 107797664 A CN107797664 A CN 107797664A
Authority
CN
China
Prior art keywords
active user
face
structure light
image
attentively
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711021162.3A
Other languages
English (en)
Other versions
CN107797664B (zh
Inventor
蒋国强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201711021162.3A priority Critical patent/CN107797664B/zh
Publication of CN107797664A publication Critical patent/CN107797664A/zh
Application granted granted Critical
Publication of CN107797664B publication Critical patent/CN107797664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

本发明公开了一种内容显示方法、装置及电子装置,其中方法包括:在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整,从而能够根据用户在显示屏上的注视位置,对对应区域内的当前显示内容,例如当前显示内容的大小等进行调整,使得用户能够比较容易的阅读到图像和/或文字信息,提高了终端设备上图像和/或文字等信息的显示效果,提高了阅读量,提高了用户使用终端设备的体验。

Description

内容显示方法、装置及电子装置
技术领域
本发明涉及图像处理技术领域,特别涉及一种内容显示方法、装置及电子装置。
背景技术
目前,当用户使用终端设备进行图像和/或文字等信息的阅读时,由于终端设备显示屏尺寸的限制,例如手机、PAD等,终端设备显示屏上显示的图像和/或文字的尺寸不够大,导致用户阅读图像和/或文字等信息时比较费劲,尤其是针对需要佩戴近视镜或者老花镜的人群来说,从而降低了终端设备上图像和/或文字等信息的显示效果,降低了阅读量,影响用户使用终端设备的体验。
发明内容
本发明的实施例提供了一种内容显示方法、装置及电子装置。
本发明实施方式的内容显示方法包括:
在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼球的特征点信息;
根据所述眼球的特征点信息,确定所述当前用户在所述显示屏上的注视位置;
对所述注视位置对应区域内的当前显示内容进行调整。
进一步的,所述向使用终端的当前用户进行投影,获取所述当前用户的人脸3D模型,包括:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
进一步的,所述解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像,包括:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
进一步的,所述对所述注视位置对应区域内的当前显示内容进行调整之前,还包括:
获取所述当前用户对所述注视位置的注视时间;
所述对所述注视位置对应区域内的当前显示内容进行调整,包括:
根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整。
进一步的,所述根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整,包括:
在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
进一步的,所述在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理之后,还包括:
在所述注视时间大于第二预设时间阈值时,按照第二放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
本发明实施方式的内容显示方法,通过在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整,从而能够根据用户在显示屏上的注视位置,对对应区域内的当前显示内容,例如当前显示内容的大小等进行调整,使得用户能够比较容易的阅读到图像和/或文字信息,提高了终端设备上图像和/或文字等信息的显示效果,提高了阅读量,提高了用户使用终端设备的体验。
本发明实施方式的内容显示装置包括:
深度图像采集组件,所述深度图像采集组件用于在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
处理器,所述处理器,用于对所述人脸3D模型进行分析,获取所述人脸3D模型中眼球的特征点信息;
根据所述眼球的特征点信息,确定所述当前用户在所述显示屏上的注视位置;
对所述注视位置对应区域内的当前显示内容进行调整。
进一步的,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于,
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
进一步的,所述结构光摄像头还用于,
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
进一步的,所述处理器还用于,
获取所述当前用户对所述注视位置的注视时间;
根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整。
进一步的,所述处理器还用于,
在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
进一步的,所述处理器还用于,
在所述注视时间大于第二预设时间阈值时,按照第二放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
本发明实施方式的内容显示装置,通过在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整,从而能够根据用户在显示屏上的注视位置,对对应区域内的当前显示内容,例如当前显示内容的大小等进行调整,使得用户能够比较容易的阅读到图像和/或文字信息,提高了终端设备上图像和/或文字等信息的显示效果,提高了阅读量,提高了用户使用终端设备的体验。
本发明实施方式的电子装置包括一个或多个处理器、存储器和一个或多个程序。其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行上述的内容显示方法的指令。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成上述的内容显示方法。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明某些实施方式的内容显示方法的流程示意图。
图2是本发明某些实施方式的内容显示装置的模块示意图。
图3是本发明某些实施方式的电子装置的结构示意图。
图4是本发明某些实施方式的内容显示方法的流程示意图。
图5是本发明某些实施方式的内容显示方法的流程示意图。
图6(a)至图6(e)是根据本发明一个实施例的结构光测量的场景示意图。
图7(a)和图7(b)根据本发明一个实施例的结构光测量的场景示意图。
图8是本发明某些实施方式的内容显示方法的流程示意图。
图9是本发明某些实施方式的电子装置的模块示意图。
图10是本发明某些实施方式的电子装置的模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请一并参阅图1至2,本发明实施方式的内容显示方法用于电子装置1000。内容显示方法包括:
S101、在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型。
S102、对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息。
S103、根据眼球的特征点信息,确定当前用户在显示屏上的注视位置。
S104、对注视位置对应区域内的当前显示内容进行调整。
请参阅图3,本发明实施方式的内容显示方法可以由本发明实施方式的内容显示装置100实现。本发明实施方式的内容显示装置100用于电子装置1000。内容显示装置100包括深度图像采集组件12和处理器20。本实施例中,步骤102、步骤103、步骤104可以由处理器20实现,步骤101可以由深度图像采集组件12实现。另外,内容显示装置100还可以包括可见光摄像头11,用于拍摄当前用户所在的场景的图片,以便根据图片识别出当前用户所在的具体方位。
也就是说,深度图像采集组件12用于在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;处理器20用于对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整。
本实施例中,处理器20可以实时获取终端设备的显示屏上的显示内容,对显示内容进行检测,判断显示内容中是否包括图像和/或文字;在显示内容中包括图像和/或文字时,向深度图像采集组件12发送指示信息,指示深度图像采集组件12向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型。其中,包括图像和/或文字的显示内容例如可以为,终端设备的桌面显示内容、微信等应用等打开后的界面显示内容、设置界面显示内容等。
本实施例中,处理器20对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息的过程具体可以为,处理器20对人脸3D模型进行分析,获取人脸3D模型的特征点信息;对人脸3D模型的特征点信息进行分析,获取眼球所在位置,进而获取眼球的特征点信息。
本实施例中,处理器20可以对眼球的特征点信息进行分析,获取眼球距离显示屏的距离,以及眼球的观看角度等;根据眼球距离显示屏的距离,以及眼球的观看角度等,确定当前用户在显示屏上的注视位置。其中,注视位置可以包括:该位置相对于显示屏参考坐标的横坐标信息和纵坐标信息。
本实施例中,需要说明的是,注视位置对应区域,可以为注视位置所在的一行或者多行,或者可以为以注视位置为中心的一定区域。
本发明实施方式的内容显示装置100可以应用于本发明实施方式的电子装置1000。也即是说,本发明实施方式的电子装置1000包括本发明实施方式的内容显示装置100。
在某些实施方式中,电子装置1000包括手机、平板电脑、笔记本电脑、智能手环、智能手表、智能头盔、智能眼镜等。
本发明实施方式的内容显示方法,通过在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整,从而能够根据用户在显示屏上的注视位置,对对应区域内的当前显示内容,例如当前显示内容的大小等进行调整,使得用户能够比较容易的阅读到图像和/或文字信息,提高了终端设备上图像和/或文字等信息的显示效果,提高了阅读量,提高了用户使用终端设备的体验。
请参阅图4,在某些实施方式中,步骤101具体可以包括以下步骤:
S1011、向当前用户投射结构光。
S1012、拍摄经当前用户调制的结构光图像。
S1013、解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像。
S1014、根据当前用户的人脸深度图像和结构光图像,生成当前用户的人脸3D模型。
请再参阅图3,在某些实施方式中,深度图像采集组件12包括结构光投射器121和结构光摄像头122。步骤1011可以由结构光投射器121实现,步骤1012、步骤1013和步骤1014可以由结构光摄像头122实现。
也即是说,结构光投射器121可用于向当前用户投射结构光;结构光摄像头122可用于拍摄经当前用户调制的结构光图像;解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像;根据当前用户的人脸深度图像和结构光图像,生成当前用户的人脸3D模型。
具体地,结构光投射器121将一定模式的结构光投射到当前用户的面部或躯体上后,在当前用户的面部或躯体的表面会形成由当前用户调制后的结构光图像。结构光摄像头122拍摄经调制后的结构光图像,再对结构光图像进行解调以得到深度图像,进而得到人脸深度图像;结合人脸深度图像以及人脸部位的结构光图像,生成当前用户的人脸3D模型。其中,结构光的模式可以是激光条纹、格雷码、正弦条纹、非均匀散斑等。
请参阅图5,在某些实施方式中,步骤1013解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像的过程具体可以包括以下步骤:
S10131、解调结构光图像的各个像素对应的相位信息。
S10132、将相位信息转化为深度信息。
S10133、根据深度信息生成人脸深度图像。
请再参阅图2,在某些实施方式中,步骤10131、步骤10132和步骤10133均可以由结构光摄像头122实现。
也即是说,结构光摄像头122可进一步用于解调结构光图像的各个像素对应的相位信息;将相位信息转化为深度信息;和根据深度信息生成人脸深度图像。
具体地,与未经调制的结构光相比,调制后的结构光的相位信息发生了变化,在结构光图像中呈现出的结构光是产生了畸变之后的结构光,其中,变化的相位信息即可表征物体的深度信息。因此,结构光摄像头122首先解调出结构光图像中各个像素对应的相位信息,再根据相位信息计算出深度信息,从而得到最终的人脸深度图像。
为了使本领域的技术人员更加清楚的了解根据结构光来采集当前用户的面部或躯体的深度图像的过程,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理。其中,光栅投影技术属于广义上的面结构光。
如图6(a)所示,在使用面结构光投影的时候,首先通过计算机编程产生正弦条纹,并将正弦条纹通过结构光投射器121投射至被测物,再利用结构光摄像头122拍摄条纹受物体调制后的弯曲程度,随后解调该弯曲条纹得到相位,再将相位转化为深度信息即可获取深度图像。为避免产生误差或误差耦合的问题,使用结构光进行深度信息采集前需对深度图像采集组件12进行参数标定,标定包括几何参数(例如,结构光摄像头122与结构光投射器121之间的相对位置参数等)的标定、结构光摄像头122的内部参数以及结构光投射器121的内部参数的标定等。
具体而言,第一步,计算机编程产生正弦条纹。由于后续需要利用畸变的条纹获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差为的条纹,然后结构光投射器121将该四幅条纹分时投射到被测物(图6(a)所示的面具)上,结构光摄像头122采集到如图6(b)左边的图,同时要读取如图6(b)右边所示的参考面的条纹。
第二步,进行相位恢复。结构光摄像头122根据采集到的四幅受调制的条纹图(即结构光图像)计算出被调制相位,此时得到的相位图是截断相位图。因为四步移相算法得到的结果是由反正切函数计算所得,因此结构光调制后的相位被限制在[-π,π]之间,也就是说,每当调制后的相位超过[-π,π],其又会重新开始。最终得到的相位主值如图6(c)所示。
其中,在进行相位恢复过程中,需要进行消跳变处理,即将截断相位恢复为连续相位。如图6(d)所示,左边为受调制的连续相位图,右边是参考连续相位图。
第三步,将受调制的连续相位和参考连续相位相减得到相位差(即相位信息),该相位差表征了被测物相对参考面的深度信息,再将相位差代入相位与深度的转化公式(公式中涉及到的参数经过标定),即可得到如图6(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可以是其他任意图案。
作为一种可能的实现方式,本发明还可使用散斑结构光进行当前用户的深度信息的采集。
具体地,散斑结构光获取深度信息的方法是使用一基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构。衍射元件中基片的厚度大致为1微米,各个台阶的高度不均匀,高度的取值范围可为0.7微米~0.9微米。图7(a)所示结构为本实施例的准直分束元件的局部衍射结构。图7(b)为沿截面A-A的剖面侧视图,横坐标和纵坐标的单位均为微米。散斑结构光生成的散斑图案具有高度的随机性,并且会随着距离的不同而变换图案。因此,在使用散斑结构光获取深度信息前,首先需要标定出空间中的散斑图案,例如,在距离结构光摄像头122的0~4米的范围内,每隔1厘米取一个参考平面,则标定完毕后就保存了400幅散斑图像,标定的间距越小,获取的深度信息的精度越高。随后,结构光投射器121将散斑结构光投射到被测物(即当前用户)上,被测物表面的高度差使得投射到被测物上的散斑结构光的散斑图案发生变化。结构光摄像头122拍摄投射到被测物上的散斑图案(即结构光图像)后,再将散斑图案与前期标定后保存的400幅散斑图像逐一进行互相关运算,进而得到400幅相关度图像。空间中被测物体所在的位置会在相关度图像上显示出峰值,把上述峰值叠加在一起并经过插值运算后即可得到被测物的深度信息。
由于普通的衍射元件对光束进行衍射后得到多数衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大。即便是对衍射光进行二次衍射,得到的光束的均匀性也较低。因此,利用普通衍射元件衍射的光束对被测物进行投射的效果较差。本实施例中采用准直分束元件,该元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同的角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行投射的效果更好。同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且散斑结构光相对于其他排布均匀的结构光来说,达到同样的采集效果时,散斑结构光消耗的电量更低。
请参阅图8,在某些实施方式中,步骤104之前,还可以包括:
S105、获取当前用户对注视位置的注视时间。
对应的,步骤104具体可以包括以下步骤:
S1041、在注视时间大于第一预设时间阈值时,按照第一放大倍数对注视位置对应区域内的当前显示内容进行放大处理。
S1042、在注视时间大于第二预设时间阈值时,按照第二放大倍数对注视位置对应区域内的当前显示内容进行放大处理。
请再参阅图2,在某些实施方式中,步骤105、步骤1041和步骤1042均可以由处理器20实现。
也即是说,处理器20可进一步用于获取当前用户对注视位置的注视时间;在注视时间大于第一预设时间阈值时,按照第一放大倍数对注视位置对应区域内的当前显示内容进行放大处理;在注视时间大于第二预设时间阈值时,按照第二放大倍数对注视位置对应区域内的当前显示内容进行放大处理。其中,第一预设时间阈值小于第二预设时间阈值。第一预设时间阈值和第二预设时间阈值例如可以为,0.5秒、1秒、2秒、5秒等数值,具体数值可以根据需要进行设定。
本实施例中,当前用户对注视位置的注视时间具体可以为,当前用户对注视位置的连续注视时间。若注视位置发生变化,则重新计算注视时间。在注视时间大于第一预设时间阈值时,处理器20可以按照第一放大倍数对注视位置对应区域内的当前显示内容进行放大处理。若进行放大处理后,注视位置还未发生变化,当前用户还未阅读完成该注视位置的当前显示内容,即注视时间继续增加,增加至大于第二预设时间阈值时,则在之前按照第一放大倍数进行放大处理的基础上,对注视位置对应区域内的当前显示内容进行第二次放大处理,即按照第二放大倍数进行放大处理,使得用户能够更容易的阅读注视位置的当前显示内容。
另外,需要说明的是,处理器20根据注视时间和注视位置,不仅可以对对应区域的当前显示内容进行大小调整,也可以对颜色、格式、字体等进行调整,以突出当前显示内容,使得用户更容易阅读当前显示内容。
请一并参阅图3和图9,本发明实施方式还提出一种电子装置1000。电子装置1000包括内容显示装置100。内容显示装置100可以利用硬件和/或软件实现。内容显示装置100包括成像设备10和处理器20。
成像设备10包括可见光摄像头11和深度图像采集组件12。
具体地,可见光摄像头11包括图像传感器111和透镜112。其中,图像传感器111包括彩色滤镜阵列(如Bayer滤镜阵列),透镜112的个数可为一个或多个。图像传感器111中的每一个成像像素感应来自拍摄场景中的光强度和波长信息,生成一组原始图像数据;图像传感器111将该组原始图像数据发送至处理器20中,处理器20对原始图像数据进行去噪、插值等运算后即得到彩色的图像;处理器20可按多种格式对原始图像数据中的每个图像像素逐一处理,例如,每个图像像素可具有8、10、12或14比特的位深度,处理器20可按相同或不同的位深度对每一个图像像素进行处理。
深度图像采集组件12包括结构光投射器121和结构光摄像头122,深度图像采集组件12可用于捕捉当前用户的深度信息以得到人脸深度图像。结构光投射器121用于将结构光投射至当前用户,其中,结构光图案可以是激光条纹、格雷码、正弦条纹或者随机排列的散斑图案等。结构光摄像头122包括图像传感器1221和透镜1222,透镜1222的个数可为一个或多个。图像传感器1221用于捕捉结构光投射器121投射至当前用户上的结构光图像。结构光图像可由深度采集组件12发送至处理器20进行解调、相位恢复、相位信息计算等处理以获取当前用户的深度信息,进而获取当前用户的人脸深度图像以及人脸3D模型。
在某些实施方式中,可见光摄像头11与结构光摄像头122的功能可由一个摄像头实现,也即是说,成像设备10仅包括一个摄像头和一个结构光投射器121,上述摄像头不仅可以拍摄原始图像,还可拍摄结构光图像。
除了采用结构光获取人脸深度图像外,还可通过双目视觉方法、基于飞行时间差(Time of Flight,TOF)等深度像获取方法来获取当前用户的人脸深度图像。
处理器20进一步用于对人脸3D模型进行分析,获取人脸3D模型中眼球的特征点信息;根据眼球的特征点信息,确定当前用户在显示屏上的注视位置;对注视位置对应区域内的当前显示内容进行调整。
此外,内容显示装置100还包括图像存储器30。图像存储器30可内嵌在电子装置1000中,也可以是独立于电子装置1000外的存储器,并可包括直接存储器存取(DirectMemory Access,DMA)特征。可见光摄像头11采集的图像数据或深度图像采集组件12采集的结构光图像相关数据均可传送至图像存储器30中进行存储或缓存。处理器20可从图像存储器30中读取原始图像数据,也可从图像存储器30中读取结构光图像相关数据以进行处理得到深度图像。另外,图像数据和深度图像还可存储在图像存储器30中,以供处理器20随时调用处理。
内容显示装置100还可包括显示器50。显示器50可直接显示当前用户的人脸3D模型以供用户查看,或者由图形引擎或图形处理器(Graphics Processing Unit,GPU)进行进一步的处理。内容显示装置100还包括编码器/解码器60,编码器/解码器60可编解码深度图像等的图像数据,编码的图像数据可被保存在图像存储器30中,并可以在图像显示在显示器50上之前由解码器解压缩以进行显示。编码器/解码器60可由中央处理器(CentralProcessing Unit,CPU)、GPU或协处理器实现。换言之,编码器/解码器60可以是中央处理器(Central Processing Unit,CPU)、GPU、及协处理器中的任意一种或多种。
内容显示装置100还包括控制逻辑器40。成像设备10在成像时,处理器20会根据成像设备获取的数据进行分析以确定成像设备10的一个或多个控制参数(例如,曝光时间等)的图像统计信息。处理器20将图像统计信息发送至控制逻辑器40,控制逻辑器40控制成像设备10以确定好的控制参数进行成像。控制逻辑器40可包括执行一个或多个例程(如固件)的处理器和/或微控制器。一个或多个例程可根据接收的图像统计信息确定成像设备10的控制参数。
请参阅图10,本发明实施方式的电子装置1000包括一个或多个处理器200、存储器300和一个或多个程序310。其中一个或多个程序310被存储在存储器300中,并且被配置成由一个或多个处理器200执行。程序310包括用于执行上述任意一项实施方式的内容显示方法的指令。
例如,程序310包括用于执行以下步骤所述的内容显示方法的指令:
在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼球的特征点信息;
根据所述眼球的特征点信息,确定所述当前用户在所述显示屏上的注视位置;
对所述注视位置对应区域内的当前显示内容进行调整。
再例如,程序310还包括用于执行以下步骤所述的内容显示方法的指令:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置1000结合使用的计算机程序。计算机程序可被处理器200执行以完成上述任意一项实施方式的内容显示方法。
例如,计算机程序可被处理器200执行以完成以下步骤所述的内容显示方法:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
再例如,计算机程序还可被处理器200执行以完成以下步骤所述的内容显示方法:
获取所述当前用户对所述注视位置的注视时间;
在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理;
在所述注视时间大于第二预设时间阈值时,按照第二放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种内容显示方法,其特征在于,包括:
在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼球的特征点信息;
根据所述眼球的特征点信息,确定所述当前用户在所述显示屏上的注视位置;
对所述注视位置对应区域内的当前显示内容进行调整。
2.根据权利要求1所述的方法,其特征在于,所述向使用终端的当前用户进行投影,获取所述当前用户的人脸3D模型,包括:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
3.根据权利要求2所述的方法,其特征在于,所述解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像,包括:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
4.根据权利要求1所述的方法,其特征在于,所述对所述注视位置对应区域内的当前显示内容进行调整之前,还包括:
获取所述当前用户对所述注视位置的注视时间;
所述对所述注视位置对应区域内的当前显示内容进行调整,包括:
根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整。
5.根据权利要求4所述的方法,其特征在于,所述根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整,包括:
在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
6.根据权利要求5所述的方法,其特征在于,所述在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理之后,还包括:
在所述注视时间大于第二预设时间阈值时,按照第二放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
7.一种内容显示装置,其特征在于,包括:
深度图像采集组件,所述深度图像采集组件用于在终端设备的显示屏上显示有图像和/或文字时,向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
处理器,所述处理器,用于对所述人脸3D模型进行分析,获取所述人脸3D模型中眼球的特征点信息;
根据所述眼球的特征点信息,确定所述当前用户在所述显示屏上的注视位置;
对所述注视位置对应区域内的当前显示内容进行调整。
8.根据权利要求7所述的装置,其特征在于,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于,
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
9.根据权利要求8所述的装置,其特征在于,所述结构光摄像头还用于,
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
10.根据权利要求7所述的装置,其特征在于,所述处理器还用于,
获取所述当前用户对所述注视位置的注视时间;
根据所述注视时间对所述注视位置对应区域内的当前显示内容进行调整。
11.根据权利要求7所述的装置,其特征在于,所述处理器还用于,
在所述注视时间大于第一预设时间阈值时,按照第一放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
12.根据权利要求7所述的装置,其特征在于,所述处理器还用于,
在所述注视时间大于第二预设时间阈值时,按照第二放大倍数对所述注视位置对应区域内的当前显示内容进行放大处理。
13.一种电子装置,其特征在于,所述电子装置包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行权利要求1至6任意一项所述的内容显示方法的指令。
14.一种计算机可读存储介质,其特征在于,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成权利要求1至6任意一项所述的内容显示方法。
CN201711021162.3A 2017-10-27 2017-10-27 内容显示方法、装置及电子装置 Active CN107797664B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711021162.3A CN107797664B (zh) 2017-10-27 2017-10-27 内容显示方法、装置及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711021162.3A CN107797664B (zh) 2017-10-27 2017-10-27 内容显示方法、装置及电子装置

Publications (2)

Publication Number Publication Date
CN107797664A true CN107797664A (zh) 2018-03-13
CN107797664B CN107797664B (zh) 2021-05-07

Family

ID=61548159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711021162.3A Active CN107797664B (zh) 2017-10-27 2017-10-27 内容显示方法、装置及电子装置

Country Status (1)

Country Link
CN (1) CN107797664B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108519834A (zh) * 2018-04-04 2018-09-11 Oppo广东移动通信有限公司 图像显示方法、装置、存储介质和电子设备
CN108650408A (zh) * 2018-04-13 2018-10-12 维沃移动通信有限公司 一种屏幕解锁方法和移动终端
CN108733999A (zh) * 2018-04-24 2018-11-02 浙江大华技术股份有限公司 一种解锁方法及装置、终端设备和可读存储介质
CN109614182A (zh) * 2018-11-20 2019-04-12 维沃移动通信有限公司 一种显示方法及终端设备
CN110109553A (zh) * 2019-05-24 2019-08-09 京东方科技集团股份有限公司 一种智能镜子和显示方法
CN110162178A (zh) * 2019-05-22 2019-08-23 努比亚技术有限公司 说明信息的展示方法、可穿戴设备以及存储介质
CN110231871A (zh) * 2019-06-14 2019-09-13 腾讯科技(深圳)有限公司 页面阅读方法、装置、存储介质及电子设备
WO2019237942A1 (zh) * 2018-06-15 2019-12-19 北京七鑫易维信息技术有限公司 一种基于结构光的视线追踪方法、装置、设备及存储介质
CN110599325A (zh) * 2019-08-27 2019-12-20 杭州深景数据技术有限公司 一种告知书读取的方法、装置、设备及存储介质
CN110765847A (zh) * 2019-09-06 2020-02-07 平安科技(深圳)有限公司 基于人脸识别的字体调整方法、装置、设备及介质
CN111221409A (zh) * 2019-11-12 2020-06-02 维沃移动通信有限公司 信息显示方法、装置、电子设备以及存储介质
CN111638835A (zh) * 2020-04-28 2020-09-08 维沃移动通信有限公司 笔记的生成方法及电子设备
CN111642939A (zh) * 2019-03-16 2020-09-11 上海铼锶信息技术有限公司 一种智能镜
CN112860060A (zh) * 2021-01-08 2021-05-28 广州朗国电子科技有限公司 一种图像识别方法、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542300A (zh) * 2011-12-19 2012-07-04 Tcl王牌电器(惠州)有限公司 体感游戏中人体位置自动识别的方法及显示终端
CN102663810A (zh) * 2012-03-09 2012-09-12 北京航空航天大学 一种基于相位偏移扫描的三维人脸全自动建模方法
CN103760980A (zh) * 2014-01-21 2014-04-30 Tcl集团股份有限公司 根据双眼位置进行动态调整的显示方法、系统及显示设备
US20140347397A1 (en) * 2013-05-22 2014-11-27 Nvidia Corporation Method and system for adjusting screen orientation of a mobile device
CN104618705A (zh) * 2014-11-28 2015-05-13 深圳市亿思达科技集团有限公司 基于眼球追踪的不同距离自适应全息显示方法及设备
CN105843390A (zh) * 2016-02-24 2016-08-10 上海理湃光晶技术有限公司 一种图像缩放的方法与基于该方法的ar眼镜
US20170003742A1 (en) * 2015-06-30 2017-01-05 Beijing Zhigu Rui Tuo Tech Co., Ltd Display control method, display control apparatus and user equipment
CN106774912A (zh) * 2016-12-26 2017-05-31 宇龙计算机通信科技(深圳)有限公司 一种操控vr设备的方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542300A (zh) * 2011-12-19 2012-07-04 Tcl王牌电器(惠州)有限公司 体感游戏中人体位置自动识别的方法及显示终端
CN102663810A (zh) * 2012-03-09 2012-09-12 北京航空航天大学 一种基于相位偏移扫描的三维人脸全自动建模方法
US20140347397A1 (en) * 2013-05-22 2014-11-27 Nvidia Corporation Method and system for adjusting screen orientation of a mobile device
CN103760980A (zh) * 2014-01-21 2014-04-30 Tcl集团股份有限公司 根据双眼位置进行动态调整的显示方法、系统及显示设备
CN104618705A (zh) * 2014-11-28 2015-05-13 深圳市亿思达科技集团有限公司 基于眼球追踪的不同距离自适应全息显示方法及设备
US20170003742A1 (en) * 2015-06-30 2017-01-05 Beijing Zhigu Rui Tuo Tech Co., Ltd Display control method, display control apparatus and user equipment
CN105843390A (zh) * 2016-02-24 2016-08-10 上海理湃光晶技术有限公司 一种图像缩放的方法与基于该方法的ar眼镜
CN106774912A (zh) * 2016-12-26 2017-05-31 宇龙计算机通信科技(深圳)有限公司 一种操控vr设备的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋航: "《物联网技术及其军事应用》", 30 April 2013, 国防工业出版社 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108519834A (zh) * 2018-04-04 2018-09-11 Oppo广东移动通信有限公司 图像显示方法、装置、存储介质和电子设备
CN108650408A (zh) * 2018-04-13 2018-10-12 维沃移动通信有限公司 一种屏幕解锁方法和移动终端
CN108733999A (zh) * 2018-04-24 2018-11-02 浙江大华技术股份有限公司 一种解锁方法及装置、终端设备和可读存储介质
WO2019237942A1 (zh) * 2018-06-15 2019-12-19 北京七鑫易维信息技术有限公司 一种基于结构光的视线追踪方法、装置、设备及存储介质
CN109614182A (zh) * 2018-11-20 2019-04-12 维沃移动通信有限公司 一种显示方法及终端设备
CN111642939A (zh) * 2019-03-16 2020-09-11 上海铼锶信息技术有限公司 一种智能镜
CN110162178A (zh) * 2019-05-22 2019-08-23 努比亚技术有限公司 说明信息的展示方法、可穿戴设备以及存储介质
CN110109553A (zh) * 2019-05-24 2019-08-09 京东方科技集团股份有限公司 一种智能镜子和显示方法
US11803236B2 (en) 2019-05-24 2023-10-31 Boe Technology Group Co., Ltd. Mirror and display method
CN110231871A (zh) * 2019-06-14 2019-09-13 腾讯科技(深圳)有限公司 页面阅读方法、装置、存储介质及电子设备
CN110599325A (zh) * 2019-08-27 2019-12-20 杭州深景数据技术有限公司 一种告知书读取的方法、装置、设备及存储介质
CN110765847A (zh) * 2019-09-06 2020-02-07 平安科技(深圳)有限公司 基于人脸识别的字体调整方法、装置、设备及介质
CN111221409A (zh) * 2019-11-12 2020-06-02 维沃移动通信有限公司 信息显示方法、装置、电子设备以及存储介质
CN111638835A (zh) * 2020-04-28 2020-09-08 维沃移动通信有限公司 笔记的生成方法及电子设备
CN112860060A (zh) * 2021-01-08 2021-05-28 广州朗国电子科技有限公司 一种图像识别方法、设备及存储介质

Also Published As

Publication number Publication date
CN107797664B (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN107797664A (zh) 内容显示方法、装置及电子装置
CN107610077A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107807806A (zh) 显示参数调整方法、装置及电子装置
CN107682607A (zh) 图像获取方法、装置、移动终端和存储介质
CN107742296A (zh) 动态图像生成方法和电子装置
CN107707831A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107707835A (zh) 图像处理方法及装置、电子装置和计算机可读存储介质
CN107509045A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107734267A (zh) 图像处理方法和装置
CN107707838A (zh) 图像处理方法和装置
CN107610078A (zh) 图像处理方法和装置
CN107509043A (zh) 图像处理方法及装置
CN107734264A (zh) 图像处理方法和装置
CN107644440A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107705278A (zh) 动态效果的添加方法和终端设备
CN107610127A (zh) 图像处理方法、装置、电子装置和计算机可读存储介质
CN107613383A (zh) 视频音量调节方法、装置及电子装置
CN107527335A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107610076A (zh) 图像处理方法和装置、电子装置和计算机可读存储介质
CN107454336A (zh) 图像处理方法及装置、电子装置和计算机可读存储介质
CN107613223A (zh) 图像处理方法及装置、电子装置和计算机可读存储介质
CN107682740A (zh) 在视频中合成音频方法和电子装置
CN107705277A (zh) 图像处理方法和装置
CN107705243A (zh) 图像处理方法及装置、电子装置和计算机可读存储介质
CN107613228A (zh) 虚拟服饰的添加方法和终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant after: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd.

Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant before: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant