CN107592449B - 三维模型建立方法、装置和移动终端 - Google Patents

三维模型建立方法、装置和移动终端 Download PDF

Info

Publication number
CN107592449B
CN107592449B CN201710676992.3A CN201710676992A CN107592449B CN 107592449 B CN107592449 B CN 107592449B CN 201710676992 A CN201710676992 A CN 201710676992A CN 107592449 B CN107592449 B CN 107592449B
Authority
CN
China
Prior art keywords
user
face
model
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710676992.3A
Other languages
English (en)
Other versions
CN107592449A (zh
Inventor
张学勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201710676992.3A priority Critical patent/CN107592449B/zh
Publication of CN107592449A publication Critical patent/CN107592449A/zh
Application granted granted Critical
Publication of CN107592449B publication Critical patent/CN107592449B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种三维模型建立方法、装置和移动终端,其中,该方法包括:对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型;若有,则根据第一预设的方式,生成所述用户当前的脸部3D模型;若无,则根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。

Description

三维模型建立方法、装置和移动终端
技术领域
本发明涉及移动终端技术领域,尤其涉及一种三维模型建立方法、装置和移动终端。
背景技术
随着网络和电子技术的快速发展,移动终端的功能日益强大,被广泛应用于人们的生活、学习、工作中。目前,为了使用户获得更好的使用体验,可以在移动终端中安装各种各样的应用。例如,可以在移动终端中安装利用结构光技术的相机应用,利用结构光技术进行图像拍摄。
相关技术中,移动终端中的相机应用通常会利用高分辨率来获取被拍摄物体的深度信息,通过对深度信息进行解析,生成三维(Three-Dimensional,简称3D)模型,进而生成拍摄图像。然而,获取高分辨率的深度信息及对高分辨率的深度信息进行解析的过程,会造成移动终端的功耗过大,影响移动终端的续航时间,用户体验差。
发明内容
本发明旨在至少在一定程度上解决上述的技术问题之一。
为此,本申请提出一种三维模型建立方法,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本申请还提出一种三维模型建立装置。
本申请还提出一种移动终端。
本申请还提出一种计算机可读存储介质。
本申请第一方面提出一种三维模型建立方法,所述方法包括:
对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;
判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型;
若有,则根据第一预设的方式,生成所述用户当前的脸部3D模型;
若无,则根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,根据所述第一预设的方式,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
本申请实施例提供的三维模型建立方法,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本申请第二方面提出一种三维模型建立装置,所述装置包括:
确定模块,用于对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;
判断模块,用于判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型;
第一生成模块,用于预设的模型库中有与所述用户的人脸图像对应的3D模型时,根据第一预设的方式,生成所述用户当前的脸部3D模型;
第二生成模块,用于预设的模型库中没有与所述用户的人脸图像对应的3D模型时,根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,根据所述第一预设的方式,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
本申请实施例提供的三维模型建立装置,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本申请第三方面提出一种移动终端,包括存储器、处理器及图像处理电路,所述存储器用于存储可执行程序代码;所述处理器通过读取所述存储器中存储的可执行程序代码,及所述图像处理电路输出的深度图像,以实现如第一方面所述的三维模型建立方法。
本申请实施例提供的移动终端,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本申请第四方面提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的三维模型建立方法。
本申请实施例提供的计算机可读存储介质,可以设置在任意具有摄像功能的移动终端中,通过执行其上存储的三维模型建立方法,可以减小用户拍摄图像过程中的功耗,延长移动终端的续航时间,改善用户体验。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本申请一个实施例的三维模型建立方法的流程图;
图1A是本申请一个实施例的不均匀的结构光的散斑分布图;
图1B是本申请一个实施例的均匀的结构光的散斑分布图;
图2是本申请一个实施例的根据第一预设的方式生成用户当前的脸部3D模型的流程图;
图3是本申请一个实施例的三维模型建立装置的结构图;
图4是本申请另一个实施例的三维模型建立装置的结构图;
图5是本申请一个实施例的移动终端的结构图;
图6是本申请一个实施例的图像处理电路的结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的三维模型建立方法、装置和移动终端。
本发明各实施例针对现有技术中,移动终端中的相机应用通常会利用高分辨率来获取被拍摄物体的深度信息,通过对深度信息进行解析,生成3D模型,进而生成拍摄图像,然而,获取高分辨率的深度信息及对高分辨率的深度信息进行解析的过程,会造成移动终端的功耗过大,影响移动终端的续航时间,用户体验差的问题,提出一种三维模型建立方法。
本发明实施例提供的三维模型建立方法,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
下面结合图1对本申请实施例的三维模型建立方法进行说明。
图1是本申请一个实施例的三维模型建立方法的流程图。
如图1所示,该方法包括:
步骤101,对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像。
其中,本发明实施例提供的三维模型建立方法,可以由本发明实施例提供的三维模型建立装置执行。具体的,该三维模型建立装置,可以被配置在任意具有摄像功能的移动终端中。其中,移动终端的类型很多,可以根据应用需要进行选择,例如:手机、电脑等。
具体的,可以通过模板匹配方法、镶嵌图方法、几何构造方法、神经网络方法等等多种方法,对当前获取的图像进行人脸检测,以确定当前获取的图像中用户的人脸图像。
步骤102,判断预设的模型库中是否有与用户的人脸图像对应的3D模型,若有,则执行步骤103,否则,执行步骤104。
具体的,可以预先建立模型库,在用户初次使用移动终端拍摄图像时,可以生成用户的脸部3D模型,并将生成的用户的脸部3D模型及对应的人脸图像保存在预设的模型库中。
其中,用户初次使用移动终端拍摄图像时,生成的用户的脸部3D模型,是以最高分辨率获取的,3D模型中可以包括用户正面、侧面等情况下,脸部所有特征点对应的3D深度信息。
具体的,用户初次使用移动终端拍摄图像时,可以通过以下方式,生成用户的脸部3D模型。
利用非均匀结构光,获取用户的脸部深度信息;
对用户的脸部深度信息进行解析,生成用户的脸部3D模型。
具体的,可以利用移动终端中的成像设备(照相机),获取用户的脸部深度信息,及生成用户的脸部3D模型。
其中,成像设备中,可以包括结构光投射器及图像传感器,分别用于投射结构光及采集结构光图像;或者,也可以在移动终端中,单独设置结构光投射器及图像传感器,此处不作限制。
具体实现时,在用户拍摄图像时,可以利用成像设备中的结构光投射器,对用户脸部区域投射结构光图案,其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。然后通过对结构光图案变形的感知及三角测量法等,获取用户的脸部深度信息。
其中,结构光可以是非均匀的结构光。
具体的,非均匀的结构光,可以通过多种方法形成。
比如,可以通过红外激光光源照射毛玻璃,从而在用户脸部区域产生干涉形成非均匀的结构光。
或者,可以通过衍射光学元件进行投射的方式,形成非均匀的结构光。具体的,可以由单个激光光源准直后通过单个或多个衍射光学元件,在用户脸部区域形成非均匀的结构光。
或者,还可以直接由不规则分布的激光阵列通过衍射光学元件,在用户脸部区域形成与激光阵列一致的不规则分布的散斑,即非均匀的结构光。通过这种方式,还可以控制散斑的细节分布,此处不作限定。
可以理解的是,分别以不均匀的结构光和均匀的结构光投射物体表面时,不均匀的结构光的散斑分布如图1A所示,均匀的结构光的散斑分布如图1B所示。从图1A和1B可知,相同大小的区域内,图1A中包含11个斑点,图1B中包含16个斑点,即不均匀的结构光所包含的斑点比均匀的结构光包含的斑点更少。因此,利用不均匀的结构光,获取用户的脸部深度信息,消耗的能量更少,节能效果更好,改善了用户体验。
进一步的,获取了用户的脸部深度信息后,即可对用户的脸部深度信息进行解析,生成用户的脸部3D模型。
具体的,可以通过多种方法,根据用户的脸部深度信息,生成用户的脸部3D模型。
比如,可以多次获取用户的脸部深度信息,生成多个脸部深度图像,并对多个脸部深度图像进行去噪声处理、平滑处理、前后景分割等预处理,从而将脸部深度图像中可能包括的背景、环境等与人脸进行分离。然后,根据脸部深度图像获取密集点云数据,并进行脸部深度信息点云网格的重建。再对重建后的多帧深度图像进行合并、配准,生成脸部3D模型。
或者,可以通过结构光技术,获取脸部结构光红外图像,然后从结构光红外图像中采集人脸的散斑红外图像,计算得到散斑红外图像的散斑点相对于参考散斑图像的移动距离,并根据移动距离、参考散斑图像的位置信息得到脸部散斑红外图像的散斑点的深度值,从而根据深度值得到脸部深度图像。然后通过对结构光红外图像进行滤波处理,得到脸部红外图像。进而根据脸部深度图像与红外图像,得到用户的脸部3D模型。
具体的,生成用户的脸部3D模型后,即可将用户的脸部3D模型及对应的人脸图像保存在预设的模型库中,从而在确定当前获取的图像中用户的人脸图像后,可以将用户的人脸图像与预设的模型库中,3D模型对应的人脸图像进行匹配,以确定预设的模型库中是否有与用户的人脸图像对应的3D模型。
步骤103,根据第一预设的方式,生成用户当前的脸部3D模型。
具体的,若通过匹配,确定用户的人脸图像与预设的模型库中,某3D模型对应的人脸图像匹配,则可以根据第一预设的方式,生成用户当前的脸部3D模型。
具体实现时,可以利用非均匀的结构光,确定用户当前的脸部轮廓信息及动作信息,然后从预设的模型库中,获取与用户的人脸图像对应的3D模型,并利用确定的用户当前的脸部轮廓信息及动作信息,对3D模型中的脸部轮廓信息及动作信息进行修正或更新,从而使获取的3D模型中的脸部轮廓信息及动作信息与用户当前的脸部轮廓及动作对应,以生成用户当前的脸部3D模型。
上述生成用户当前的脸部3D模型的方式,由于仅获取用户当前的脸部轮廓信息及动作信息,无需获取及解析高分辨率的深度信息,因此减小了移动终端的功耗,且通过根据用户当前的脸部轮廓信息、动作信息及预设的模型库中的3D模型,共同生成用户当前的脸部3D模型,可以保证生成的脸部3D模型中的深度信息是高分辨率的,包含用户脸部的所有细节信息。
步骤104,根据第二预设的方式,生成用户当前的脸部3D模型。
其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。
具体的,若通过将用户的人脸图像与预设的模型库中,3D模型对应的人脸图像进行匹配,确定预设的模型库中没有与用户的人脸图像对应的3D模型,则可以根据第二预设的方式,生成用户当前的脸部3D模型。
具体实现时,若预设的模型库中没有与用户的人脸图像对应的3D模型,则可以认为用户是初次使用移动终端拍摄图像,则可以通过步骤102中所述的方式,生成用户当前的脸部3D模型的过程。
即,步骤104可以通过以下方式实现:
利用非均匀结构光,获取所述用户的脸部深度信息;
对所述用户的脸部深度信息进行解析,生成所述用户的脸部3D模型。
具体的利用结构光生成用户的脸部3D模型的实现过程及原理,可以参照上述步骤102的详细描述,此处不再赘述。
具体的,生成用户当前的脸部3D模型后,即可根据用户的脸部3D模型,生成用户的图像。
本发明实施例提供的三维模型建立方法,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
通过上述分析可知,可以对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中,有与用户的人脸图像对应的3D模型,则可以根据第一预设的方式,生成用户当前的脸部3D模型。下面结合图2,对根据第一预设的方式生成用户当前的脸部3D模型的过程进行具体说明。
图2是本发明一个实施例的根据第一预设的方式生成用户当前的脸部3D模型的流程图。
如图2所示,该方法包括:
步骤201,利用非均匀结构光,确定用户当前的脸部轮廓信息及动作信息。
具体的,步骤201可以通过多种方式实现。
比如,可以根据当前获取的图像中用户的人脸图像,确定用户的脸部所在区域及人脸中的五官所在区域,然后利用成像设备中的结构光投射器,向用户的五官所在区域及脸部边缘区域投射非均匀的结构光图案,并利用图像传感器捕捉投影至用户五官所在区域及脸部边缘区域形成的结构光图像。再从该结构光图像中采集用户五官边缘及脸部边缘的散斑图像,将五官边缘及脸部边缘的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取五官边缘及脸部边缘散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到五官边缘及脸部边缘的深度信息,以确定用户当前的脸部轮廓信息及动作信息。
或者,可以利用成像设备中的结构光投射器,对用户的脸部所在区域投射非均匀的结构光图案,并利用图像传感器捕捉投影至用户脸部形成的结构光图像。然后从该结构光图像中采集用户五官边缘及脸部边缘的散斑图像,将五官边缘及脸部边缘的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取五官边缘及脸部边缘散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到五官边缘及脸部边缘的深度信息,以确定用户当前的脸部轮廓信息及动作信息。
即,可以仅对用户五官所在区域及脸部边缘区域投射非均匀结构光图案,再对图像传感器获取的结构光图案进行解析,以降低非均匀结构光的发射数量的方式,确定用户当前的脸部轮廓信息及动作信息。和/或,对用户脸部区域投射非均匀结构光图案后,仅对获取的用户五官及脸部边缘区域的非均匀散斑进行解析,通过降低对获取的非均匀散斑的解析数量的方式,确定用户当前的脸部轮廓信息及动作信息。
相应的,在步骤201之前,还可以包括:
降低非均匀结构光的发射数量;
和/或,降低对获取的非均匀散斑的解析数量。
步骤201中,确定用户当前的脸部轮廓信息及动作信息,可以包括:
获取用户的五官边缘对应的特征信息;
根据用户的五官边缘对应的特征信息,确定用户的脸部轮廓及动作信息。
其中,五官边缘对应的特征信息,可以包括五官边缘对应的深度信息,像素信息等信息。
具体的,对用户的五官所在区域及脸部边缘区域或用户的脸部区域投射结构光图像后,可以利用图像传感器捕捉投影至用户五官所在区域及脸部边缘区域或脸部形成的结构光图像,然后从该结构光图像中采集用户五官边缘及脸部边缘的散斑图像,根据散斑图像,获取用户的五官边缘散斑图像中各个散斑点的深度值,并根据该深度值得到五官边缘的深度信息,以确定用户当前的脸部轮廓信息及动作信息。
通过上述方式,确定用户当前的脸部轮廓信息及动作信息,进而生成用户当前的脸部3D模型,减小了投射结构光过程和/或解析过程的功耗。
步骤202,根据与用户的人脸图像对应的3D模型,及用户当前的脸部轮廓信息及动作信息,生成用户当前的脸部3D模型。
具体的,确定了用户当前的脸部轮廓信息及动作信息后,可以从预设的模型库中,获取与用户的人脸图像对应的3D模型,并利用确定的用户当前的脸部轮廓信息及动作信息,对3D模型中的脸部轮廓信息及动作信息进行修正或更新,从而使获取的3D模型中的脸部轮廓信息及动作信息与用户当前的脸部轮廓及动作对应,以生成用户当前的脸部3D模型。
通过根据用户当前的脸部轮廓信息、动作信息及预设的模型库中的3D模型,共同生成用户当前的脸部3D模型,可以保证生成的脸部3D模型中的深度信息是高分辨率的,包含用户脸部的所有细节信息。
本发明实施例提供的三维模型建立方法,首先利用非均匀结构光,确定用户当前的脸部轮廓信息及动作信息,然后根据与用户的人脸图像对应的3D模型,及用户当前的脸部轮廓信息及动作信息,生成用户当前的脸部3D模型。由此,通过仅获取用户当前的脸部轮廓信息及动作信息,以生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验,且通过根据预设的模型库中的3D模型,生成用户当前的脸部3D模型,可以保证生成的脸部3D模型中的深度信息是高分辨率的,包含用户脸部的所有细节信息,保证拍摄图像的质量。
图3是本申请一个实施例的三维模型建立装置的结构图。
如图3所示,该三维模型建立装置,包括:
确定模块31,用于对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像;
判断模块32,用于判断预设的模型库中是否有与用户的人脸图像对应的3D模型;
第一生成模块33,用于预设的模型库中有与用户的人脸图像对应的3D模型时,根据第一预设的方式,生成用户当前的脸部3D模型;
第二生成模块34,用于预设的模型库中没有与用户的人脸图像对应的3D模型时,根据第二预设的方式,生成用户当前的脸部3D模型,其中,根据所述第一预设的方式,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
其中,本实施例提供的三维模型建立装置,可以执行本发明实施例提供的三维模型建立方法。具体的,该三维模型建立装置,可以被配置在任意具有摄像功能的移动终端中。其中,移动终端的类型很多,可以根据应用需要进行选择,例如:手机、电脑、相机等。
需要说明的是,前述实施例中对三维模型建立方法实施例的解释说明也适用于该实施例的三维模型建立装置,此处不再赘述。
本申请实施例提供的三维模型建立装置,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
图4是本申请另一个实施例的三维模型建立装置的结构图。
如图4所示,在图3所示的基础上,三维模型建立装置中,第一生成模块33,包括:
确定单元331,用于利用非均匀结构光,确定用户当前的脸部轮廓信息及动作信息;
第一生成单元332,用于根据与用户的人脸图像对应的3D模型,及用户当前的脸部轮廓信息及动作信息,生成用户当前的脸部3D模型。
在本发明一种可能的实现形式中,上述第一生成模块33,还包括:
控制单元333,用于降低非均匀结构光的发射数量;
和/或,用于降低对获取的非均匀散斑的解析数量。
在本发明另一种可能的实现形式中,上述确定单元331,具体用于:
获取用户的五官边缘对应的特征信息;
根据用户的五官边缘对应的特征信息,确定用户的脸部轮廓及动作信息。
在本发明另一种可能的实现形式中,上述第二生成模块34,包括:
获取单元341,用于利用非均匀结构光,获取用户的脸部深度信息;
第二生成单元342,用于对用户的脸部深度信息进行解析,生成用户的脸部3D模型。
需要说明的是,前述实施例中对三维模型建立方法实施例的解释说明也适用于该实施例的三维模型建立装置,此处不再赘述。
本申请实施例提供的三维模型建立装置,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本发明再一方面实施例还提出一种移动终端。
图5是本申请一个实施例提供的移动终端的结构图。
其中,移动终端的类型很多,可以根据应用需要进行选择,例如:手机、电脑、相机等。图5以移动终端为手机进行示意。
如图5所示,该移动终端包括:处理器51、存储器52、及图像处理电路53。
其中,存储器52用于存储可执行程序代码;处理器51通过读取存储器52中存储的可执行程序代码,及图像处理电路53输出的深度图像,来实现如前述实施例中的三维模型建立方法。
上述移动终端中包括图像处理电路53,图像处理电路53可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。
图6为一个实施例中图像处理电路的示意图。如图6所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
如图6所示,图像处理电路63包括成像设备610、ISP处理器630和控制逻辑器640。成像设备610可包括具有一个或多个透镜612、图像传感器614的照相机和结构光投射器616。结构光投射器616将结构光投影至被测物。其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。图像传感器614捕捉投影至被测物形成的结构光图像,并将结构光图像发送至ISP处理器630,由ISP处理器630对结构光图像进行解调获取被测物的深度信息。同时,图像传感器614也可以捕捉被测物的色彩信息。当然,也可以由两个图像传感器614分别捕捉被测物的结构光图像和色彩信息。
其中,以散斑结构光为例,ISP处理器630对结构光图像进行解调,具体包括,从该结构光图像中采集被测物的散斑图像,将被测物的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取被测物上散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到被测物的深度信息。
当然,还可以通过双目视觉的方法或基于飞行时差TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到被测物的深度信息的方法都属于本实施方式包含的范围。
在ISP处理器630接收到图像传感器614捕捉到的被测物的色彩信息之后,可被测物的色彩信息对应的图像数据进行处理。ISP处理器630对图像数据进行分析以获取可用于确定和/或成像设备610的一个或多个控制参数的图像统计信息。图像传感器614可包括色彩滤镜阵列(如Bayer滤镜),图像传感器614可获取用图像传感器614的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器630处理的一组原始图像数据。
ISP处理器630按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器630可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的图像统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器630还可从图像存储器620接收像素数据。图像存储器620可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct MemoryAccess,直接直接存储器存取)特征。
当接收到原始图像数据时,ISP处理器630可进行一个或多个图像处理操作。
在ISP处理器630获取到被测物的色彩信息和深度信息后,可对其进行融合,得到三维图像。其中,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种提取相应的被测物的特征。例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法,提取被测物的特征,在此不做限定。再将分别从深度信息中提取到被测物的特征以及从色彩信息中提取到被测物的特征进行配准和特征融合处理。这里指的融合处理可以是将深度信息以及色彩信息中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终根据融合后的特征,生成三维图像。
三维图像的图像数据可发送给图像存储器620,以便在被显示之前进行另外的处理。ISP处理器630从图像存储器620接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。三维图像的图像数据可输出给显示器660,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器630的输出还可发送给图像存储器620,且显示器660可从图像存储器620读取图像数据。在一个实施例中,图像存储器620可被配置为实现一个或多个帧缓冲器。此外,ISP处理器630的输出可发送给编码器/解码器650,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器660设备上之前解压缩。编码器/解码器650可由CPU或GPU或协处理器实现。
ISP处理器630确定的图像统计信息可发送给控制逻辑器640单元。控制逻辑器640可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的图像统计信息,确定成像设备610的控制参数。
以下为运用图6中图像处理技术实现三维模型建立方法的步骤:
对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;
判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型;
若有,则根据第一预设的方式,生成所述用户当前的脸部3D模型;
若无,则根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,根据所述第一预设的方式,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
本申请实施例提供的移动终端,首先对当前获取的图像进行人脸识别,确定当前获取的图像中用户的人脸图像,若预设的模型库中有与用户的人脸图像对应的3D模型,则根据第一预设的方式,生成用户当前的脸部3D模型,若预设的模型库中没有与用户的人脸图像对应的3D模型,则根据第二预设的方式,生成用户当前的脸部3D模型。其中,根据第一预设的方式,生成用户当前的脸部3D模型时,比根据第二预设的方式,生成用户当前的脸部3D模型时的功耗小。由此,通过在预设的模型库中有与用户的人脸图像对应的3D模型时,以功耗小的方式,生成用户当前的脸部3D模型,减小了用户拍摄图像过程中的功耗,延长了移动终端的续航时间,改善了用户体验。
本申请实施例还提出一种计算机可读存储介质,其上存储有计算机程序,当该程序被处理器执行时实现如前述实施例中的三维模型建立方法。
本申请实施例提供的计算机可读存储介质,可以设置在任意具有摄像功能的移动终端中,通过执行其上存储的三维模型建立方法,可以减小用户拍摄图像过程中的功耗,延长移动终端的续航时间,改善用户体验。
本申请实施例还提出一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行如前述实施例中的三维模型建立方法。
本申请实施例提供的计算机程序产品,可以设置在任意具有摄像功能的移动终端中,通过执行对应三维模型建立方法的程序,可以减小用户拍摄图像过程中的功耗,延长移动终端的续航时间,改善用户体验。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
需要说明的是,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (8)

1.一种三维模型建立方法,其特征在于,包括:
对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;
判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型,所述预设的模型库中存储有用户的脸部3D模型及对应的人脸图像;
若有,对所述用户的五官所在区域及脸部边缘区域或所述用户的脸部区域投射非均匀的结构光图案,获取投影至所述用户的五官所在区域及脸部边缘区域或所述用户的脸部区域形成的结构光图像,从所述结构光图像中采集所述用户的五官边缘及脸部边缘的散斑图像,根据所述散斑图像,获取所述用户的五官边缘的散斑图像中各个散斑点的深度值,并根据所述深度值得到的所述五官边缘的深度信息,确定所述用户当前的脸部轮廓信息及动作信息,基于所述用户当前的脸部轮廓信息及动作信息对与所述用户的人脸图像对应的3D模型中的脸部轮廓信息及动作信息进行修正或更新,生成与所述用户当前的脸部轮廓信息及动作信息对应的所述用户当前的脸部3D模型;
若无,则根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,基于所述用户当前的脸部轮廓信息及动作信息对与所述用户的人脸图像对应的3D模型中的脸部轮廓信息及动作信息进行修正或更新,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
2.如权利要求1所述的方法,其特征在于,所述确定所述用户当前的脸部轮廓信息及动作信息之前,还包括:
降低所述非均匀结构光的发射数量;
和/或,降低对获取的非均匀散斑的解析数量。
3.如权利要求1或2所述的方法,其特征在于,所述确定所述用户当前的脸部轮廓信息及动作信息,包括:
获取所述用户的五官边缘对应的特征信息;
根据所述用户的五官边缘对应的特征信息,确定所述用户的脸部轮廓及动作信息。
4.如权利要求1-2任一所述的方法,其特征在于,所述根据第二预设的方式,生成所述用户的脸部3D模型,包括:
利用非均匀结构光,获取所述用户的脸部深度信息;
对所述用户的脸部深度信息进行解析,生成所述用户的脸部3D模型。
5.一种三维模型建立装置,其特征在于,包括:
确定模块,用于对当前获取的图像进行人脸识别,确定所述当前获取的图像中用户的人脸图像;
判断模块,用于判断预设的模型库中是否有与所述用户的人脸图像对应的3D模型,所述预设的模型库中存储有用户的脸部3D模型及对应的人脸图像;
第一生成模块,用于预设的模型库中有与所述用户的人脸图像对应的3D模型时,对所述用户的五官所在区域及脸部边缘区域或所述用户的脸部区域投射非均匀的结构光图案,获取投影至所述用户的五官所在区域及脸部边缘区域或所述用户的脸部区域形成的结构光图像,从所述结构光图像中采集所述用户的五官边缘及脸部边缘的散斑图像,根据所述散斑图像,获取所述用户的五官边缘的散斑图像中各个散斑点的深度值,并根据所述深度值得到的所述五官边缘的深度信息,确定所述用户当前的脸部轮廓信息及动作信息,基于所述用户当前的脸部轮廓信息及动作信息对与所述用户的人脸图像对应的3D模型中的脸部轮廓信息及动作信息进行修正或更新,生成与所述用户当前的脸部轮廓信息及动作信息对应的所述用户当前的脸部3D模型;
第二生成模块,用于预设的模型库中没有与所述用户的人脸图像对应的3D模型时,根据第二预设的方式,生成所述用户当前的脸部3D模型,其中,基于所述用户当前的脸部轮廓信息及动作信息对与所述用户的人脸图像对应的3D模型中的脸部轮廓信息及动作信息进行修正或更新,生成所述用户当前的脸部3D模型时,比根据所述第二预设的方式,生成所述用户当前的脸部3D模型时的功耗小。
6.如权利要求5所述的装置,其特征在于,所述第一生成模块,还包括:
控制单元,用于降低所述非均匀结构光的发射数量;
和/或,用于降低对获取的非均匀散斑的解析数量。
7.一种移动终端,其特征在于,包括存储器、处理器及图像处理电路,所述存储器用于存储可执行程序代码;所述处理器通过读取所述存储器中存储的可执行程序代码,及所述图像处理电路输出的深度图像,以实现如权利要求1-4中任一所述的三维模型建立方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的三维模型建立方法。
CN201710676992.3A 2017-08-09 2017-08-09 三维模型建立方法、装置和移动终端 Expired - Fee Related CN107592449B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710676992.3A CN107592449B (zh) 2017-08-09 2017-08-09 三维模型建立方法、装置和移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710676992.3A CN107592449B (zh) 2017-08-09 2017-08-09 三维模型建立方法、装置和移动终端

Publications (2)

Publication Number Publication Date
CN107592449A CN107592449A (zh) 2018-01-16
CN107592449B true CN107592449B (zh) 2020-05-19

Family

ID=61042075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710676992.3A Expired - Fee Related CN107592449B (zh) 2017-08-09 2017-08-09 三维模型建立方法、装置和移动终端

Country Status (1)

Country Link
CN (1) CN107592449B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019196683A1 (zh) 2018-04-12 2019-10-17 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN108921102B (zh) * 2018-07-05 2022-07-05 盎锐(上海)信息科技有限公司 3d影像的处理方法及装置
CN109118569B (zh) * 2018-08-16 2023-03-10 Oppo广东移动通信有限公司 基于三维模型的渲染方法和装置
CN109064551B (zh) * 2018-08-17 2022-03-25 联想(北京)有限公司 电子设备的信息处理方法和装置
CN109190533B (zh) * 2018-08-22 2021-07-09 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110543871B (zh) * 2018-09-05 2022-01-04 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN109218588B (zh) * 2018-10-31 2020-04-03 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、结构光组件及电子装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106358B2 (en) * 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
CN100416612C (zh) * 2006-09-14 2008-09-03 浙江大学 基于视频流的三维动态人脸表情建模方法
US8351651B2 (en) * 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US20110304629A1 (en) * 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
CN102663810B (zh) * 2012-03-09 2014-07-16 北京航空航天大学 一种基于相位偏移扫描的三维人脸全自动建模方法
CN102831408A (zh) * 2012-08-29 2012-12-19 华南理工大学 人脸识别方法
CN103473804A (zh) * 2013-08-29 2013-12-25 小米科技有限责任公司 一种图像处理方法、装置和终端设备
CN104978764B (zh) * 2014-04-10 2017-11-17 华为技术有限公司 三维人脸网格模型处理方法和设备
CN106156702A (zh) * 2015-04-01 2016-11-23 北京市商汤科技开发有限公司 身份认证方法及设备
CN106372333A (zh) * 2016-08-31 2017-02-01 北京维盛视通科技有限公司 基于人脸模型的服装展示方法及装置

Also Published As

Publication number Publication date
CN107592449A (zh) 2018-01-16

Similar Documents

Publication Publication Date Title
CN107592449B (zh) 三维模型建立方法、装置和移动终端
CN109118569B (zh) 基于三维模型的渲染方法和装置
CN107481304B (zh) 在游戏场景中构建虚拟形象的方法及其装置
CN107564050B (zh) 基于结构光的控制方法、装置和终端设备
CN107480613B (zh) 人脸识别方法、装置、移动终端和计算机可读存储介质
CN101697233B (zh) 一种基于结构光的三维物体表面重建方法
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
CN107479801B (zh) 基于用户表情的终端显示方法、装置及终端
CN107563304B (zh) 终端设备解锁方法及装置、终端设备
US20120176478A1 (en) Forming range maps using periodic illumination patterns
CN107452034B (zh) 图像处理方法及其装置
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
CN107463659B (zh) 物体搜索方法及其装置
CN107610171B (zh) 图像处理方法及其装置
CN107481101B (zh) 穿衣推荐方法及其装置
CN107491744B (zh) 人体身份识别方法、装置、移动终端和存储介质
CN107517346B (zh) 基于结构光的拍照方法、装置及移动设备
WO2016107638A1 (en) An image face processing method and apparatus
CN107480615B (zh) 美颜处理方法、装置及移动设备
CN107392874B (zh) 美颜处理方法、装置及移动设备
CN108682050B (zh) 基于三维模型的美颜方法和装置
CN107438161A (zh) 拍摄画面处理方法、装置和终端
CN107493452B (zh) 视频画面处理方法、装置和终端
CN107330974B (zh) 商品展示方法、装置及移动设备
CN107370952B (zh) 图像拍摄方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant after: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd.

Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant before: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd.

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200519