CN109190503A - 美颜方法、装置、计算装置和存储介质 - Google Patents
美颜方法、装置、计算装置和存储介质 Download PDFInfo
- Publication number
- CN109190503A CN109190503A CN201810908946.6A CN201810908946A CN109190503A CN 109190503 A CN109190503 A CN 109190503A CN 201810908946 A CN201810908946 A CN 201810908946A CN 109190503 A CN109190503 A CN 109190503A
- Authority
- CN
- China
- Prior art keywords
- face
- user
- key point
- taken
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title abstract description 19
- 230000006870 function Effects 0.000 claims description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 3
- 230000001755 vocal effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 24
- 230000001815 facial effect Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003796 beauty Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种美颜方法、装置、计算装置和存储介质,涉及图像处理技术领域。该方法中,采集被拍摄用户的人脸的三维数据,根据人脸的三维数据,构建人脸的三维模型。从三维模型中检测人脸五官的关键点,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点。根据调整后的关键点,绘制人脸三维图像。本申请将现有的2D美颜模式,提升到3D模式,无论用户在任何角度,都能够获取到用户人脸的三维数据,并结合三维的参考人脸进行美颜,能够使美颜不失真,更加自然。
Description
技术领域
本申请涉及图像处理技术领域,尤其设计基于红外传感的美颜方法、装置、计算装置和存储介质。
背景技术
随着人们对于手机拍照软件的美颜的需求越来越大,同时也在要求美颜的功能越来越丰富,例如,美颜效果更逼真,更自然。
现有的美颜技术是通过摄像头对人脸的二维模型进行调整,当调整等级过高时会出现五官比例失调,过度美白造成的人脸轮廓虚化,以及当镜头晃动时明显看到脸部的变形和周围物体的变形等情况。
发明内容
本申请实施例提供一种美颜方法、装置、计算装置和存储介质。
采集被拍摄用户的人脸的三维数据;
根据人脸的三维数据,构建人脸的三维模型;
从三维模型中检测人脸五官的关键点;
根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点;
根据调整后的关键点,绘制人脸三维图像。
进一步的,根据人脸的三维数据,构建人脸的三维模型之后,所述方法还包括:
根据人脸的三维模型确定所述被拍摄用户的以下用户信息中的至少一种:年龄、性别、种族、脸型;
根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,所述方法还包括:
从3D面部模型对比库中选择与所述被拍摄用户的用户信息对应的人脸模型作为用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,该方法还包括:
显示与所述被拍摄用户的用户信息对应的人脸模型,以及各人脸模型的文字描述信息;
检测用户对显示的人脸模型的选择操作,将用户选择的人脸模型作为最终用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点,具体包括:
计算标准人脸的各个五官相对于该标准人脸的体积比;以及,
计算所述被拍摄用户的各个五官相对于所述被拍摄用户的人脸的体积比;
调整所述被拍摄用户的关键点使得被拍摄用户的各个五官和人脸的体积比等于所述标准人脸中相应五官相对于人脸的体积比。
进一步的,该方法还包括:
根据以下方法创建3D面部模型对比库中的标准人脸模型:
获取多个样本用户的人脸的三维数据;
根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习;
合成学习后的标准人脸模型。
进一步的,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,所述方法还包括:
显示供用户选择自动美颜功能和手动美颜功能的操作界面;
根据用户在所述操作界面的操作、确定接收到选择自动美颜功能的选择指令。
进一步的,该方法还包括:
若确定接收到选择手动美颜功能的选择指令,则显示所述被拍摄用户人脸的三维模型;
接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,则显示选择的五官的关键点;
若检测到用户对所述五官的关键点的移动操作,则根据用户移动后的关键点对所选五官进行调整;
根据调整后的关键点,绘制人脸三维图像。
进一步的,接收到被拍摄用户对显示的三维模型中的某一五官的选择指令后,所述方法还包括:
显示选择的五官的3D面部模型对比库中的模型;
根据调整后的关键点,绘制人脸三维图像之前,包括:
若检测到用户对3D面部模型对比库中的所选五官的模型的选择操作,则根据3D面部模型对比库中所选五官的模型的关键点,调整所述被拍摄用户的人脸关键点。
进一步的,选择的五官的3D面部模型对比库中的模型包括预先创建的夸张搞怪的五官模型。
本申请实施例还提供一种美颜装置,该装置包括:
采集模块1001,用于采集被拍摄用户的人脸的三维数据;
模型构建模块1002,用于根据人脸的三维数据,构建人脸的三维模型;
第一检测模块1003,用于从三维模型中检测人脸五官的关键点;
第一调整模块1004,用于根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点;
图像绘制模块1005,用于根据调整后的关键点,绘制人脸三维图像。
进一步的,该装置还包括:
信息检测模块,用于在模型构建模块1002根据人脸的三维数据,构建人脸的三维模型之后,根据人脸的三维模型确定所述被拍摄用户的以下用户信息中的至少一种:年龄、性别、种族、脸型;
选择模块,用于在第一调整模块1004根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,从3D面部模型对比库中选择与所述被拍摄用户的用户信息对应的人脸模型作为用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,该装置还包括:
第一显示模块,用于显示与所述被拍摄用户的用户信息对应的人脸模型,以及各人脸模型的文字描述信息;
第二检测模块,用于检测用户对显示的人脸模型的选择操作,将用户选择的人脸模型作为最终用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,第一调整模块1004具体包括:
第一计算单元,用于计算标准人脸的各个五官相对于该标准人脸的体积比;以及,
第二计算单元,用于计算所述被拍摄用户的各个五官相对于所述被拍摄用户的人脸的体积比;
第一调整单元,用于调整所述被拍摄用户的关键点使得被拍摄用户的各个五官和人脸的体积比等于所述标准人脸中相应五官相对于人脸的体积比。
进一步的,该装置还包括:
获取模块,用于获取多个样本用户的人脸的三维数据;
学习模块,用于根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习;
合成模块,用于合成学习后的标准人脸模型。
进一步的,该装置还包括:
第二显示模块,用于在第一调整模块1004根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,显示供用户选择自动美颜功能和手动美颜功能的操作界面;
接收模块,用于根据用户在所述操作界面的操作、确定接收到选择自动美颜功能的选择指令。
进一步的,该装置还包括:
第三显示模块,用于若确定接收到选择手动美颜功能的选择指令,则显示所述被拍摄用户人脸的三维模型;
第四显示模块,用于接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,则显示选择的五官的关键点;
第二调整模块,用于若检测到用户对所述五官的关键点的移动操作,则根据用户移动后的关键点对所选五官进行调整;
绘制模块,用于根据调整后的关键点,绘制人脸三维图像。
进一步的,第四显示模块还用于,接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,显示选择的五官的3D面部模型对比库中的模型;
第三调整模块,,用于在绘制模块根据调整后的关键点,绘制人脸三维图像之前,若检测到用户对3D面部模型对比库中的所选五官的模型的选择操作,则根据3D面部模型对比库中所选五官的模型的关键点,调整所述被拍摄用户的人脸关键点。
进一步的,选择的五官的3D面部模型对比库中的模型包括预先创建的夸张搞怪的五官模型。
本申请另一实施例还提供了一种计算装置,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例提供的任一美颜方法。
本申请另一实施例还提供了一种计算机存储介质,其中,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行本申请实施例中的任一美颜方法。
本申请实施例提供的美颜方法、装置、计算装置和存储介质,由于将美颜模式上升到3D模式,用户任何一个角度的数据都是真实的,且参照美颜的标准人脸模型也具有各个角度的数据,这样美颜参照的对象比较自然,处理的用户的数据也是三维的,也比较自然,故而本申请实施例中美颜后的人脸更加逼真,更加自然,增加用户的体验感。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1a为本申请实施例中的应用场景的示意图之一;
图1b为本申请实施例中的应用场景的示意图之二;
图2为本申请实施例中的流程示意图;
图3为本申请实施例中另一流程示意图;
图4为本申请实施例中另一应用场景示意图;
图5为本申请实施例中另一应用场景示意图;
图6为本申请实施例中另一应用场景示意图;
图7为本申请实施例中的美颜装置的结构示意图;
图8为根据本申请实施方式的计算装置的结构示意图。
具体实施方式
为了美颜更自然,本申请实施例中提供一种美颜方法、装置、计算装置和存储介质。为了更好的理解本申请实施例提供的技术方案,这里对该方案的基本原理做一下简单说明:
本申请实施例中将现有的2D美颜模式,提升到3D模式,无论用户在任何角度,都能够获取到用户人脸的三维数据,并结合三维的参考人脸进行美颜,能够使美颜不失真,更加自然。具体的可采集被拍摄用户的人脸的三维数据,根据人脸的三维数据,构建人脸的三维模型。从三维模型中检测人脸五官的关键点,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点。根据调整后的关键点,绘制人脸三维图像。
如图1a和图1b所示,其为通过本申请实施例提供的方案来完成美颜的场景示意图。图1a中包括用户13的终端设备14,图1b中包括用户10的终端设备11、服务器12。
图1a中,用户13在拍照或者直播时可以通过终端设备14来进行美颜。终端设备14采集用户13的人脸的三维数据,根据人脸的三维数据,构建人脸的三维模型。从用户13的人脸三维模型中检测人脸五官的关键点,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整用户13的人脸的关键点。根据调整后的关键点,绘制用户13的人脸三维图像。
进一步的,如图1b所示,用户10也在拍照或直播时可以通过终端设备11或服务器12进行美颜。以服务器12为例对该场景进行说明,终端设备11采集用户10的人脸的三维数据,然后将三维数据发送给服务器12,服务器12根据人脸的三维数据,构建人脸的三维模型。从用户10的三维模型中检测人脸的五官的关键点。可以根据用户10的需要从服务器12下载符合要求的人脸模型,根据人脸模型的关键点,调整用户10的人脸关键点,再根据调整后的关键点,绘制人脸三维图像。然后将绘制的人脸图像交由观看直播的终端进行播放。这样,便是实现了直播过程中的事实美颜。
其中,移动终端设备11和PC机12可通过通信网络进行通信连接,该网络可以为局域网、广域网等,当然也可以通过线连接。终端设备11可以为手机、平板电脑、笔记本电脑、个人计算机等。
下面结合参照附图对本申请实施例提供的美颜方法作进一步说明,如图2,为美颜方法的流程示意图,包括以下步骤:
步骤201:采集被拍摄用户的人脸的三维数据。
步骤202:根据人脸的三维数据,构建人脸的三维模型。
步骤203:从三维模型中检测人脸五官的关键点。
步骤204:根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点。
步骤205:根据调整后的关键点,绘制人脸三维图像。
本实施例中,人脸的三维数据是通过红外镜头、泛光感应器组、点阵投影器组合来实现的。其中,红外镜头捕捉人的面部图像信息生成三维数据,泛光感应器组配合红外镜头适应各个光线环境,使其不受白天黑夜的影响。面部图像信息采集之后,点阵投影器将无数个光点投射在人的面部,进行3D立体建模。从三维模型中检测人脸五官的关键点,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,对被拍摄用户的人脸的关键点进行调整。根据调整后的关键点,绘制人脸三维图像。
通过上述实施例,将美颜变为3D模式,相对于现有技术中2D美颜来说,2D模式下通常用户仅能够在一定角度范围内获得美颜效果,如果用户侧面,2D将无法准确找到面部进行该侧面角度下的美颜。造成2D美颜效果差、不自然。而本申请中在3D模式下,拥有用户三维数据,无论用户在何种角度下拍摄,都能够准确的获取用户的面部信息。此外,本申请使用的是3D的标准人脸模型进行美颜,标准人脸模型也具有三维数据,无论哪个角度都能够很好的作为参考,使美颜后的人脸更加逼真,更加自然,增加用户的体验感。
进一步的,由于自然人有多种种类、且不同时期人的审美不同、不同人种的审美也不尽相同。本申请实施例为了能够进一步合理的进行美颜处理,根据人脸的三维数据,构建人脸的三维模型之后,还可以根据人脸的三维模型确当被拍摄用户的以下用户信息的至少一种:年龄、性别、种族、脸型。从3D面部模型对比库中选择与被拍摄用户的用户信息对应的人脸模型作为用于调整被拍摄用户的人脸关键点的标准人脸模型。
具体实施中,不同的年龄、性别的美的标准不同,不同的脸型美的标准也不一样。例如,圆脸有圆脸的标准,V字脸有V字脸的标准。根据不同的用户信息从3D面部模型对比库中选择用户信息对应的人脸模型,可以使美颜的效果更加符合每一位用户自身的审美,使美颜更加的自然。
进一步的,为了增加3D美颜的趣味性并提高用户粘度,本申请实施例中,在从3D面部模型对比库中选择与所述被拍摄用户的用户信息对应的人脸模型作为用于调整所述被拍摄用户的人脸关键点的标准人脸模型之前还可以执行步骤A1-步骤A2:
步骤A1:显示与被拍摄用户的用户信息对应的人脸模型,以及各人脸模型的文字描述信息。
例如,可以对中国不同历史朝代的人脸模型进行解释,让用户了解每一个模型表示什么历史情境下的人物,提供美颜的趣味性,并且能够促进用户分享美颜效果。
步骤A2:检测用户对显示的人脸模型的选择操作,将用户选择的人脸模型作为最终用于调整被拍摄用户的人脸关键点的标准人脸模型。
通过上述实施例,为用户提供各人脸模型的文字描述信息,可以增加互动性,提高用户体感。
进一步的,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整被拍摄用户的人脸关键点,包括以下步骤B1-步骤B3:
步骤B1:计算标准人脸的各个五官相对于该标准人脸的体积比;
步骤B2:以及计算被拍摄用户的各个五官相对于被拍摄用户的人脸体积比;
步骤B3:调整被拍摄用户的关键点使得被拍摄用户的各个五官和人脸的体积比等于标准人脸中相应五官相对于人脸的体积比。
具体实施时可以首先将脸型的关键点按照标准人脸模型的脸型的关键点进行调整。例如,根据被拍摄用户的关键点和标准人脸模型关键点,可以确定对相应的部分是进行削骨还是填充。若达到削骨的微整形效果时,将相对于标准人脸模型来说被拍摄用户的人脸模型中冗余的数据减少;达到填充苹果肌的效果时,将面部相应部位缺少的数据进行填充,使脸部曲面符合标准人脸模型。再计算各个五官相对于人脸的体积比,调整被拍摄用户的五官的关键点,将各个五官相对于人脸的体积比等于标准人脸模型中相应五官相对于人脸的体积比。
通过上述实施例,美颜变为3D模式,可以使美颜更加自然,根据五官相对于人脸的体积比,调整关键点,可以使美颜不夸张,不失真,更贴合用户的原有面貌。
进一步的,如图3所述为创建3D面部模型对比库中的标准人脸模型需要步骤流程示意图:
步骤301:获取多个样本用户的人脸的三维数据。
步骤302:根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习。
步骤303:合成学习后的标准人脸模型。
通过上述实施例,可以使标准人脸模型更加符合大众的审美,增加用户的体验感。
进一步的,根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习包括:获取用户评分后的人脸的三维数据作为学习样本,根据评分机制,对人脸模型进行评分,合成评分高的不同类型的人脸模型作为标准人脸模型标准。
具体实施时,首先根据不同的年龄、性别、种族和脸型的用户对一些人脸模型进行评分,收集用户的评分。通过卷积神经网络对于用户的评分机制和评分标准进行学习,使得卷积神经网络能够给出不同人脸的审美评分。再根据这些人脸模型的数据,合成一个评分高的不同类型的“平均脸”作为标准人脸模型。“平均脸“是指,对评分后的人脸模型的数据进行处理,生成符合一定范围人群审美标准的模型,具体生成时,可以生成不同种族、性别、年龄和脸型的标准人脸模型。
此外,根据用户在使用3D美颜的过程中,收集用户对于标准人脸模型的主观调整,不断的丰富和更新3D面部模型对比库中的标准人脸模型。再由深度卷积神经网络进行学习,达到根据用户审美的变化丰富和更新标准人脸模型的目的。
进一步的,如图4所示,为本实施例的应用场景示意图。根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整被拍摄用户的人脸关键点之前,显示供用户选择自动美颜功能和手动美颜功能的操作界面,根据用户再操作界面的操作,确定接收到选择自动美颜功能的选择指令。如图4所示,在用户进行美颜之前,为用户提供“手动美颜”和“自动美颜”两个选项,用户可以根据自己的喜好和想法来进行选择美颜的方式。
在进行美颜之前,需要根据用户对于美颜功能的选择操作,来确定是否根据标准人脸模型的关键点对用户的人脸关键点进行调整。这样,增加了互动性,可以让用户自己选择是否进行美颜以及怎样美颜,增加用户的体验感。
进一步的,如图5所示,其为本实施例的应用场景示意图。其中,a为美颜之前的示意图,b为美颜之后的示意图。若确定接收到选择手动美颜功能的选择指令,则显示被拍摄用户人脸的三维模型,接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,则显示选择五官的关键点。若检测到用户对五官的关键点的移动操作,则根据用户移动后的关键点对五官进行调整,根据调整后的关键点,绘制人脸图像。如图5中的a所示,接收到了用户对“嘴“的选择,显示嘴部的关键点,检测到用户对关键点进行了移动,则根据用户移动后的关键点对五官进行调整,根据调整后的关键点绘制人脸图像,如图5中的b所示。
具体实施时,用户可随意移动人脸三维模型的关键点,也可以过度的调整曲线,形成夸张的面部轮廓,用于夸张搞怪。这样,根据用户的操作,调整人脸三维模型的关键点,自由度高,用户可以随自己的喜好调整,不加约束,增加了趣味性。
进一步的,如图6所示,其为本实施例的应用场景示意图,a为美颜之前的示意图,b为美颜之后的示意图。接收到被拍摄用户对显示的三维模型中的某一五官的选择指令后,显示选择的五官的3D面部模型对比库中的模型,若检测到用户对3D面部模型对比库中的所选五官的模型的选择操作,则根据3D面部模型对比库中的所选五官的模型的关键点,调整被拍摄用户的五官的关键点。如图6中的a所示,接收到了用户对“嘴“的选择,不仅显示嘴部的关键点,还显示3D面部模型对比库中的嘴部模型,根据用户选择的嘴部模型的关键点,调整用户的五官的关键点。根据调整后的关键点,绘制人脸图像如图6中的b所示。
这样,用户可以根据自己的喜好组合不同的五官、面部曲线。这样可以增加趣味性,自由度高,增加用户的体验感。
进一步的,为了增加趣味性,选择的五官的3D面部模型对比库中的模型包括预先创建的夸张搞怪的五官模型。用户可以根据需要进行选择,根据选择的五官的模型的关键点,对用户的五官的关键点进行调整。
基于相同的发明构思,本申请实施例还提供一种美颜装置。如图7所示,其为美颜装置的结构示意图。该装置包括:
采集模块1001,用于采集被拍摄用户的人脸的三维数据;
模型构建模块1002,用于根据人脸的三维数据,构建人脸的三维模型;
第一检测模块1003,用于从三维模型中检测人脸五官的关键点;
第一调整模块1004,用于根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点;
图像绘制模块1005,用于根据调整后的关键点,绘制人脸三维图像。
进一步的,该装置还包括:
信息检测模块,用于在模型构建模块1002根据人脸的三维数据,构建人脸的三维模型之后,根据人脸的三维模型确定所述被拍摄用户的以下用户信息中的至少一种:年龄、性别、种族、脸型;
选择模块,用于在第一调整模块1004根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,从3D面部模型对比库中选择与所述被拍摄用户的用户信息对应的人脸模型作为用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,该装置还包括:
第一显示模块,用于显示与所述被拍摄用户的用户信息对应的人脸模型,以及各人脸模型的文字描述信息;
第二检测模块,用于检测用户对显示的人脸模型的选择操作,将用户选择的人脸模型作为最终用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
进一步的,第一调整模块1004具体包括:
第一计算单元,用于计算标准人脸的各个五官相对于该标准人脸的体积比;以及,
第二计算单元,用于计算所述被拍摄用户的各个五官相对于所述被拍摄用户的人脸的体积比;
第一调整单元,用于调整所述被拍摄用户的关键点使得被拍摄用户的各个五官和人脸的体积比等于所述标准人脸中相应五官相对于人脸的体积比。
进一步的,该装置还包括:
获取模块,用于获取多个样本用户的人脸的三维数据;
学习模块,用于根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习;
合成模块,用于合成学习后的标准人脸模型。
进一步的,该装置还包括:
第二显示模块,用于在第一调整模块1004根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,显示供用户选择自动美颜功能和手动美颜功能的操作界面;
接收模块,用于根据用户在所述操作界面的操作、确定接收到选择自动美颜功能的选择指令。
进一步的,该装置还包括:
第三显示模块,用于若确定接收到选择手动美颜功能的选择指令,则显示所述被拍摄用户人脸的三维模型;
第四显示模块,用于接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,则显示选择的五官的关键点;
第二调整模块,用于若检测到用户对所述五官的关键点的移动操作,则根据用户移动后的关键点对所选五官进行调整;
绘制模块,用于根据调整后的关键点,绘制人脸三维图像。
进一步的,第四显示模块还用于,接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,显示选择的五官的3D面部模型对比库中的模型;
第三调整模块,用于在绘制模块根据调整后的关键点,绘制人脸三维图像之前,若检测到用户对3D面部模型对比库中的所选五官的模型的选择操作,则根据3D面部模型对比库中所选五官的模型的关键点,调整所述被拍摄用户的人脸关键点。
进一步的,选择的五官的3D面部模型对比库中的模型包括预先创建的夸张搞怪的五官模型。
在介绍了本申请示例性实施方式的美颜方法和装置之后,接下来,介绍根据本申请的另一示例性实施方式的计算装置。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本申请的计算装置可以至少包括至少一个处理器、以及至少一个存储器(如前述的第一服务器)。其中,存储器存储有程序代码,当程序代码被处理器执行时,使得处理器执行本说明书上述描述的根据本申请各种示例性实施方式的系统权限开启方法中的步骤。例如,处理器可以执行如图2中所示的步骤201-203。
下面参照图8来描述根据本申请的这种实施方式的计算装置130。图8显示的计算装置130仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算装置130以通用计算装置的形式表现。计算装置130的组件可以包括但不限于:上述至少一个处理器131、上述至少一个存储器132、连接不同系统组件(包括存储器132和处理器131)的总线133。
总线133表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器132可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储器132还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算装置130也可以与一个或多个外部设备134(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与计算装置130交互的设备通信,和/或与使得该计算装置130能与一个或多个其它计算装置进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口135进行。并且,计算装置130还可以通过网络适配器136与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器136通过总线133与用于计算装置130的其它模块通信。应当理解,尽管图中未示出,可以结合计算装置130使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在一些可能的实施方式中,本申请提供的美颜方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的美颜方法中的步骤,例如,计算机设备可以执行如图2中所示的步骤201-203。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请的实施方式的用于美颜的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算装置上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算装置上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算装置上部分在远程计算装置上执行、或者完全在远程计算装置或服务器上执行。在涉及远程计算装置的情形中,远程计算装置可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算装置,或者,可以连接到外部计算装置(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (12)
1.一种美颜方法,其特征在于,所述方法包括:
采集被拍摄用户的人脸的三维数据;
根据人脸的三维数据,构建人脸的三维模型;
从三维模型中检测人脸五官的关键点;
根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点;
根据调整后的关键点,绘制人脸三维图像。
2.根据权利要求1所述的方法,其特征在于,根据人脸的三维数据,构建人脸的三维模型之后,所述方法还包括:
根据人脸的三维模型确定所述被拍摄用户的以下用户信息中的至少一种:年龄、性别、种族、脸型;
根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,所述方法还包括:
从3D面部模型对比库中选择与所述被拍摄用户的用户信息对应的人脸模型作为用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
显示与所述被拍摄用户的用户信息对应的人脸模型,以及各人脸模型的文字描述信息;
检测用户对显示的人脸模型的选择操作,将用户选择的人脸模型作为最终用于调整所述被拍摄用户的人脸关键点的标准人脸模型。
4.根据权利要求1所述的方法,其特征在于,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点,具体包括:
计算标准人脸的各个五官相对于该标准人脸的体积比;以及,
计算所述被拍摄用户的各个五官相对于所述被拍摄用户的人脸的体积比;
调整所述被拍摄用户的关键点使得被拍摄用户的各个五官和人脸的体积比等于所述标准人脸中相应五官相对于人脸的体积比。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据以下方法创建3D面部模型对比库中的标准人脸模型:
获取多个样本用户的人脸的三维数据;
根据样本用户的人脸三维数据作为学习样本,通过深度卷积神经网络对学习样本进行学习;
合成学习后的标准人脸模型。
6.根据权利要求1所述的方法,其特征在于,根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点之前,所述方法还包括:
显示供用户选择自动美颜功能和手动美颜功能的操作界面;
根据用户在所述操作界面的操作、确定接收到选择自动美颜功能的选择指令。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若确定接收到选择手动美颜功能的选择指令,则显示所述被拍摄用户人脸的三维模型;
接收到被拍摄用户对显示的三维模型中的某一五官的选择指令,则显示选择的五官的关键点;
若检测到用户对所述五官的关键点的移动操作,则根据用户移动后的关键点对所选五官进行调整;
根据调整后的关键点,绘制人脸三维图像。
8.根据权利要求7所述的方法,其特征在于,接收到被拍摄用户对显示的三维模型中的某一五官的选择指令之后,所述方法还包括:
显示选择的五官的3D面部模型对比库中的模型;
根据调整后的关键点,绘制人脸三维图像之前,包括:
若检测到用户对3D面部模型对比库中的所选五官的模型的选择操作,则根据3D面部模型对比库中所选五官的模型的关键点,调整所述被拍摄用户的人脸关键点。
9.根据权利要求8所述的方法,其特征在于,选择的五官的3D面部模型对比库中的模型包括预先创建的夸张搞怪的五官模型。
10.一种美颜装置,其特征在于,所述装置包括:
采集模块,用于采集被拍摄用户的人脸的三维数据;
模型构建模块,用于根据人脸的三维数据,构建人脸的三维模型;
第一检测模块,用于从三维模型中检测人脸五官的关键点;
第一调整模块,用于根据预先创建的3D面部模型对比库中的标准人脸模型的关键点,调整所述被拍摄用户的人脸关键点;
图像绘制模块,用于根据调整后的关键点,绘制人脸三维图像。
11.一种计算机可读介质,存储有计算机可执行指令,其特征在于,所述计算机可执行指令用于执行如权利要求1-9中任一权利要求所述的方法。
12.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至9中任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810908946.6A CN109190503A (zh) | 2018-08-10 | 2018-08-10 | 美颜方法、装置、计算装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810908946.6A CN109190503A (zh) | 2018-08-10 | 2018-08-10 | 美颜方法、装置、计算装置和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109190503A true CN109190503A (zh) | 2019-01-11 |
Family
ID=64920993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810908946.6A Pending CN109190503A (zh) | 2018-08-10 | 2018-08-10 | 美颜方法、装置、计算装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109190503A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321849A (zh) * | 2019-07-05 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110473295A (zh) * | 2019-08-07 | 2019-11-19 | 重庆灵翎互娱科技有限公司 | 一种基于三维人脸模型进行美颜处理的方法和设备 |
CN111338545A (zh) * | 2020-02-24 | 2020-06-26 | 北京字节跳动网络技术有限公司 | 图像处理方法、组件、电子设备及存储介质 |
CN111640204A (zh) * | 2020-05-14 | 2020-09-08 | 广东小天才科技有限公司 | 三维对象模型的构建方法、构建装置、电子设备及介质 |
CN113657357A (zh) * | 2021-10-20 | 2021-11-16 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN115018698A (zh) * | 2022-08-08 | 2022-09-06 | 深圳市联志光电科技有限公司 | 一种用于人机交互的图像处理方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106998423A (zh) * | 2016-01-26 | 2017-08-01 | 宇龙计算机通信科技(深圳)有限公司 | 图像处理方法及装置 |
CN107623815A (zh) * | 2017-08-09 | 2018-01-23 | 广东欧珀移动通信有限公司 | 人像调整处理方法和装置 |
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
-
2018
- 2018-08-10 CN CN201810908946.6A patent/CN109190503A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106998423A (zh) * | 2016-01-26 | 2017-08-01 | 宇龙计算机通信科技(深圳)有限公司 | 图像处理方法及装置 |
CN107623815A (zh) * | 2017-08-09 | 2018-01-23 | 广东欧珀移动通信有限公司 | 人像调整处理方法和装置 |
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321849B (zh) * | 2019-07-05 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110321849A (zh) * | 2019-07-05 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110473295A (zh) * | 2019-08-07 | 2019-11-19 | 重庆灵翎互娱科技有限公司 | 一种基于三维人脸模型进行美颜处理的方法和设备 |
CN110473295B (zh) * | 2019-08-07 | 2023-04-25 | 重庆灵翎互娱科技有限公司 | 一种基于三维人脸模型进行美颜处理的方法和设备 |
CN111338545A (zh) * | 2020-02-24 | 2020-06-26 | 北京字节跳动网络技术有限公司 | 图像处理方法、组件、电子设备及存储介质 |
WO2021169910A1 (zh) * | 2020-02-24 | 2021-09-02 | 北京字节跳动网络技术有限公司 | 图像处理方法、组件、电子设备及存储介质 |
US11880556B2 (en) | 2020-02-24 | 2024-01-23 | Douyin Vision Co., Ltd. | Image processing for implementing multiple graph repairing functions |
CN111640204A (zh) * | 2020-05-14 | 2020-09-08 | 广东小天才科技有限公司 | 三维对象模型的构建方法、构建装置、电子设备及介质 |
CN111640204B (zh) * | 2020-05-14 | 2024-03-19 | 广东小天才科技有限公司 | 三维对象模型的构建方法、构建装置、电子设备及介质 |
CN113657357B (zh) * | 2021-10-20 | 2022-02-25 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
WO2023066120A1 (zh) * | 2021-10-20 | 2023-04-27 | 上海商汤智能科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113657357A (zh) * | 2021-10-20 | 2021-11-16 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN115018698A (zh) * | 2022-08-08 | 2022-09-06 | 深圳市联志光电科技有限公司 | 一种用于人机交互的图像处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190503A (zh) | 美颜方法、装置、计算装置和存储介质 | |
CN111970535B (zh) | 虚拟直播方法、装置、系统及存储介质 | |
US11977670B2 (en) | Mixed reality system for context-aware virtual object rendering | |
CN109416842B (zh) | 在虚拟现实和增强现实中的几何匹配 | |
CN106797460B (zh) | 三维视频的重建 | |
US10277813B1 (en) | Remote immersive user experience from panoramic video | |
US10650590B1 (en) | Method and system for fully immersive virtual reality | |
CN104170318B (zh) | 使用交互化身的通信 | |
KR102516124B1 (ko) | 증강 및 가상 현실을 위한 시스템 및 방법 | |
CN111080759B (zh) | 一种分镜效果的实现方法、装置及相关产品 | |
US20160110922A1 (en) | Method and system for enhancing communication by using augmented reality | |
CN106027855B (zh) | 一种虚拟摇臂的实现方法和终端 | |
CN114236837A (zh) | 用于显示交互式增强现实展示的系统、方法和介质 | |
US20140298174A1 (en) | Video-karaoke system | |
CN107798932A (zh) | 一种基于ar技术的早教训练系统 | |
CN105931283B (zh) | 一种基于动作捕捉大数据的三维数字内容智能制作云平台 | |
CN109997175B (zh) | 确定虚拟对象的大小 | |
US20150172634A1 (en) | Dynamic POV Composite 3D Video System | |
JP7200935B2 (ja) | 画像処理装置および方法、ファイル生成装置および方法、並びにプログラム | |
CN108961368A (zh) | 三维动画环境中实时直播综艺节目的方法和系统 | |
CN113781613A (zh) | 表情驱动方法、系统及计算机设备 | |
CN108156385A (zh) | 图像获取方法及图像获取装置 | |
CN106534618A (zh) | 伪现场解说实现方法、装置和系统 | |
US10582125B1 (en) | Panoramic image generation from video | |
CN115631270A (zh) | 虚拟角色的直播方法及装置、计算机存储介质、终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190111 |
|
RJ01 | Rejection of invention patent application after publication |