CN112233142A - 目标跟踪方法、设备及计算机可读存储介质 - Google Patents
目标跟踪方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112233142A CN112233142A CN202011050979.5A CN202011050979A CN112233142A CN 112233142 A CN112233142 A CN 112233142A CN 202011050979 A CN202011050979 A CN 202011050979A CN 112233142 A CN112233142 A CN 112233142A
- Authority
- CN
- China
- Prior art keywords
- image
- dimensional model
- target
- image frame
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012545 processing Methods 0.000 claims description 21
- 238000013136 deep learning model Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种目标跟踪方法,包括:从视频图像中获取包括目标图像的第一图像帧,并根据第一图像帧中的目标图像建立第一三维模型;从视频图像中获取至少一个包括目标图像第二图像帧,并根据每一第二图像帧分别建立第二三维模型,在视频图像中,第二图像帧位于第一图像帧之后;根据第二三维模型对第一三维模型进行修正,并使用第一三维模型对视频图像中的目标图像进行追踪。本发明实施例的目标跟踪方法通过从视频中获取多个图像帧,并根据每一目标图像生成一三维模型,然后将多个三维模型进行修正后获得更逼真的三维模型,使用该三维模型能够对视频中的目标图像的多个角度进行跟踪,跟踪捕捉结果更准确,从而提高了工作效率。
Description
技术领域
本发明涉及图像识别和处理的技术领域,尤其是涉及一种目标跟踪方法、设备及计算机可读存储介质。
背景技术
视频行为分析是从视频序列中通过一定的图像处理,提取视频中感兴趣目标行为的一种技术。随着公共安全以及平安城市等的需要,安防领域则成为视频行为分析的广阔应用舞台,但是目前视频监控设施的智能化水平较低,大部分只是进行视频数据记录,以供事后查询,因此,人脸特征点检测在人脸识别、人脸重建以及人脸跟踪中有重要的应用。
目前,在目标重建、目标跟踪和目标非刚性注册中,如跟踪目标为人脸,往往需要指定特征点与人脸模型模板上顶点之间的对应关系,在应用之中,二维人脸特征点的使用有很多不便,而与人脸模型模板上对应关系不确定的人脸边缘特征点,会导致人脸重建结果不准确,给目标追踪应用带来一定的困难。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种目标跟踪方法、目标跟踪设备及计算机可读存储介质,能够对跟踪目标建立一个准确的、更接近实物的三维模型并进行跟踪。
第一方面,本发明的一个实施例提供的目标跟踪方法,包括:
从视频图像中获取包括目标图像的第一图像帧,并根据所述第一图像帧中的目标图像建立第一三维模型;
从所述视频图像中获取至少一个包括目标图像的第二图像帧,并根据每一所述第二图像帧分别建立第二三维模型,在所述视频图像中,所述第二图像帧位于所述第一图像帧之后;
根据所述第二三维模型对所述第一三维模型进行修正,并使用所述第一三维模型对所述视频图像中的目标图像进行追踪。
本发明实施例的目标跟踪方法通过从视频中获取多个图像帧,采用深度学习模型攫取每一图像帧的目标图像,并根据每一目标图像生成一三维模型,然后将多个三维模型进行修正、拟合,多次修正后获得与目标图像实体更接近的三维模型,使用该三维模型对目标进行跟踪,跟踪捕捉结果更准确。在现有的跟踪捕捉设备中采用本发明的目标跟踪方法,能够从多个角度进行跟踪,从而提高了工作效率。
进一步,所述从所述视频图像中获取至少一个包括目标图像的第二图像帧,包括:
获取所述视频图像中与所述第一图像帧间隔预设时间的图像帧;
判断所述图像帧中是否包括所述目标图像,并在所述图像帧中不包括所述目标图像时判断当前图像帧的下一图像帧是否包含目标图像,直到所述图像帧中包括目标图像,并将包括目标图像的图像帧作为第二图像帧。
进一步,所述判断所述图像帧中是否包括所述目标图像,包括:
分析获得所述图像帧中所有的疑似目标图像,并将每一所述疑似目标图像与所述第一三维模型进行比对;
在任一所述疑似目标图像与所述第一三维模型匹配时,确认所述图像帧包含目标图像。
进一步,所述根据所述第二三维模型对所述第一三维模型进行修正,包括:
将所述第一三维模型和第二三维模型分别输入到3D-GEN网络中的生成网络,并将所述生成网络的输出作为修正后的第一三维模型。
进一步,所述根据所述第一图像帧中的目标图像建立第一三维模型,包括:
从所述第一图像帧中攫取目标图像;
使用深度学习模型对从所述第一图像帧中攫取的目标图像进行处理,生成所述目标图像的第一三维模型;
所述根据每一所述第二图像帧分别建立第二三维模型,包括对每一所述第二图像帧进行的以下操作:
从所述第二图像帧中攫取目标图像;
使用深度学习模型对从所述第二图像帧中攫取的目标图像进行处理,生成所述目标图像的第二三维模型。
进一步,所述使用深度学习模型对从所述第一图像帧中攫取的目标图像进行处理,生成所述目标图像的第一三维模型,包括:在从所述第一图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从所述第一图像帧中攫取的目标图像进行插值处理,使从所述第一图像帧中攫取的目标图像的分辨率达到预设分辨率;
所述使用深度学习模型对从所述第二图像帧中攫取的目标图像进行处理,生成所述目标图像的第二三维模型,包括:在从所述第二图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从所述第二图像帧中攫取的目标图像进行插值处理,使从所述第二图像帧中攫取的目标图像的分辨率达到预设分辨率。
进一步,所示使用所述第一三维模型对所述视频图像中的目标图像进行追踪,包括:
对于所述视频图像中的第一图像帧之后的每一图像帧,分析获得所有疑似目标图像;
将每一疑似目标图像与所述第一三维模型进行比对;
在所述图像帧中的任一疑似目标图像与所述第一三维模型匹配时,在所述图像帧中突出显示与所述第一三维模型匹配的疑似目标图像。
进一步,所述目标图像为人的头部或脸部。
第二方面,本发明的一个实施例提供了目标跟踪设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上所述目标跟踪方法的步骤。
第三方面,本发明的一个实施例提供了计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上所述目标跟踪方法的步骤。
附图说明
图1是本发明实施例中目标跟踪方法的一具体实施例流程示意图。
具体实施方式
以下将结合实施例对本发明的构思及产生的技术效果进行清楚、完整地描述,以充分地理解本发明的目的、特征和效果。显然,所描述的实施例只是本发明的一部分实施例,而不是全部实施例,基于本发明的实施例,本领域的技术人员在不付出创造性劳动的前提下所获得的其他实施例,均属于本发明保护的范围。
参照图1,示出了本发明实施例中目标跟踪方法的流程示意图,其具体包括以下步骤。
步骤S1,从视频图像中获取包括目标图像的第一图像帧,并根据第一图像帧中的目标图像建立第一三维模型。本发明实施例的目标图像可以为人的头部或脸部,具体地,选择一段包含目标图像的视频,该段视频以目标图像的动作是连续的为佳,然后从视频中选取一些图像帧并根据这些图像帧中的目标图像来建立三维模型。本发明采用CNN(Convolutional Neural Network,卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习模型的代表算法之一)进行3D建模。
具体建模的步骤包括:
首先从第一图像帧中攫取目标图像。具体地,先获取第一图像帧,然后采用具有识别功能的图像处理工具攫取图像帧中的目标图像,如运用CNN开发的识别工具,该识别工具能够进行复杂的面部识别和物体识别,并将识别到的人脸或其他需要对象提取出来做进一步的图像处理。
然后,使用深度学习模型对从第一图像帧中攫取的目标图像进行处理,生成目标图像的第一三维模型,该第一三维模型包括目标图像的所有角度的数据。
具体地,为提高第一三维模型的质量,在从第一图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从第一图像帧中攫取的目标图像进行插值处理,例如利用已知邻近像素点的灰度值(或rgb图像中的三色值)来产生未知像素点的灰度值,以便由原始图像再生出具有更高分辨率的图像,从而使从第一图像帧中攫取的目标图像的分辨率达到预设分辨率,即通过在目标图像上不断拟合最佳光影来获取最接近实物的3D模型。
本发明的图像插值有以下三种处理方式:
第一,最临近插值,即将每一个原像素原封不动地复制映射到扩展后对应多个像素中。这种方法在放大图像的同时保留了所有的原图像的所有信息,在传统图像插值算法中,最临近像素插值较简单,容易实现,早期的时候应用比较普遍。但是,该方法会在新图像中产生明显的锯齿边缘和马赛克现象。
第二,双线性插值,双线性插值法具有平滑功能,能有效地克服最临近像素插值的不足,但会退化图像的高频部分,使图像细节变模糊。
第三,高阶插值,在放大倍数比较高时,高阶插值,如双三次插值和三次样条插值等比低阶插值效果好。
步骤S2,从视频图像中获取至少一个包括目标图像第二图像帧,并根据每一第二图像帧分别建立第二三维模型(该第二三维模型同样包括目标图像的所有角度的数据),在视频图像中,第二图像帧位于第一图像帧之后。
具体地,第二图像帧根据以下方法获取:
首先,获取视频图像与第一图像帧间隔预设时间的图像帧。然后分析获得图像帧中所有的疑似目标图像,并将每一疑似目标图像与第一三维模型进行比对,在任一疑似目标图像与第一三维模型匹配时,从而判断图像帧中是否包括目标图像,并在图像帧中不包括目标图像时判断当前图像帧的下一图像帧是否包含目标图像,直到图像帧中包括目标图像,并将包括目标图像的图像帧作为第二图像帧。
根据每一第二图像帧分别建立第二三维模型,包括对每一第二图像帧进行的以下操作:从第二图像帧中攫取目标图像;使用深度学习模型对从第二图像帧中攫取的目标图像进行处理,生成目标图像的第二三维模型。
第二三维模型的生成与第一三维模型的生成方法相同,即使用深度学习模型对从第二图像帧中攫取的目标图像进行处理,生成目标图像的第二三维模型,当从第二图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从第二图像帧中攫取的目标图像进行插值处理,使从第二图像帧中攫取的目标图像的分辨率达到预设分辨率,即通过在目标图像上不断拟合最佳光影来获取最接近实物的3D模型。
步骤S3,根据第二三维模型对第一三维模型进行修正,并使用第一三维模型对视频图像中的目标图像进行追踪。
根据第二三维模型对第一三维模型进行修正,包括:将第一三维模型和第二三维模型分别输入到3D-GEN网络中的生成网络,并将生成网络的输出作为修正后的第一三维模型。
本发明实施例中,3D-GEN网络是对三维模型进行处理的生成式对抗网络,而生成式对抗网络(GAN,Generative Adversarial Networks)是一种深度学习模型。模型通过框架中的生成模型(Generative Model,也叫生成器)和判别模型(Discriminative Model,也叫分辨器)的互相博弈学习产生相当好的输出。原始GAN理论中,并不要求G和D都是神经网络,只需要是能拟合相应生成和判别的函数即可。每个生成式对抗系统都有两个相互竞争的神经网络,其中一个将噪音录入并且生成样本(生成器),而另一网络则能够分辨正常的实验数据和从生成器获得的样本(分辨器)。这两个网络在进行一个持续的游戏,生成器会一直学习如何能够成功欺骗分辨器,而分辨器则能逐步增强自己分辨两种数据的能力。这两个系统同时接受长期的训练,终于在百万次的“对抗”之后,生成器生成的样本已经和真实的数据几乎没有差异。
例如,在现有的认知网络是学习如何通过一整套图像对(image pair)去充分认识输入与输出的图像的联系与区别。然而,在多数情况中,成对的训练数据并不好找。而解决这一问题的方法就是使用两个完全相对的映像,一方的输出图像被设定成正好是对方的输入图像。以这样的方法,人们得以用非常少量的数据让人工智能认识到两个图像的真实联系(无监督学习)。
本发明在根据二维图像建立三维模型时采用生成式对抗神经网络,可以使人工智能可以直接通过自然图像背后的数据进行学习。这样的模型自动调节了输出图像的编辑,使其尽可能逼真。同时,这样的处理可在约束优化的条件下实现近乎于实时的执行。
在本发明实施例中,根据视频中的二维图像生成三维模型,经过3D对抗式生成网络的修正后,输出一个与实际目标图像尽可能逼真的三维模型,然后使用该三维模型对视频图像中的目标图像进行追踪。具体地,对于视频图像中的第一图像帧之后的每一图像帧,分析获得所有疑似目标图像;将每一疑似目标图像与第一三维模型进行比对;在图像帧中的任一疑似目标图像与第一三维模型匹配时,在图像帧中突出显示与第一三维模型匹配的疑似目标图像。
本发明实施例的目标跟踪方法通过从视频中获取多个图像帧,采用深度学习模型攫取每一图像帧的目标图像,并根据每一目标图像生成一三维模型,然后将多个三维模型进行修正、拟合,多次修正后获得与目标图像实体更接近的三维模型,使用该三维模型对目标进行跟踪,跟踪捕捉结果更准确。在现有的跟踪捕捉设备中采用本发明的目标跟踪方法,根据二维图像建立的三维模型能够保证设备从多个角度对目标或疑似目标进行跟踪,从而提高了工作效率。
本发明的一个实施例还提供了一种目标跟踪设备,具体包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上所述的目标跟踪方法的步骤。
本实施例中的目标跟踪设备与上述图1对应实施例中的目标跟踪方法属于同一构思,其具体实现过程详细见对应的方法实施例,且方法实施例中的技术特征在本设备实施例中均对应适用,这里不再赘述。
本发明的一个实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上目标跟踪方法的步骤。
本实施例中的计算机可读存储介质与上述图1对应实施例中的目标跟踪方法属于同一构思,其具体实现过程详细见对应的方法实施例,且方法实施例中的技术特征在本设备实施例中均对应适用,这里不再赘述。
本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或界面切换设备、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。此外,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括:
从视频图像中获取包括目标图像的第一图像帧,并根据所述第一图像帧中的目标图像建立第一三维模型;
从所述视频图像中获取至少一个包括目标图像的第二图像帧,并根据每一所述第二图像帧分别建立第二三维模型,在所述视频图像中,所述第二图像帧位于所述第一图像帧之后;
根据所述第二三维模型对所述第一三维模型进行修正,并使用所述第一三维模型对所述视频图像中的目标图像进行追踪。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述从所述视频图像中获取至少一个包括目标图像的第二图像帧,包括:
获取所述视频图像中与所述第一图像帧间隔预设时间的图像帧;
判断所述图像帧中是否包括所述目标图像,并在所述图像帧中不包括所述目标图像时判断当前图像帧的下一图像帧是否包含目标图像,直到所述图像帧中包括目标图像,并将包括目标图像的图像帧作为第二图像帧。
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述判断所述图像帧中是否包括所述目标图像,包括:
分析获得所述图像帧中所有的疑似目标图像,并将每一所述疑似目标图像与所述第一三维模型进行比对;
在任一所述疑似目标图像与所述第一三维模型匹配时,确认所述图像帧包含目标图像。
4.根据权利要求1所述的目标跟踪方法,其特征在于,所述根据所述第二三维模型对所述第一三维模型进行修正,包括:
将所述第一三维模型和第二三维模型分别输入到3D-GEN网络中的生成网络,并将所述生成网络的输出作为修正后的第一三维模型。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述根据所述第一图像帧中的目标图像建立第一三维模型,包括:
从所述第一图像帧中攫取目标图像;
使用深度学习模型对从所述第一图像帧中攫取的目标图像进行处理,生成所述目标图像的第一三维模型;
所述根据每一所述第二图像帧分别建立第二三维模型,包括对每一所述第二图像帧进行的以下操作:
从所述第二图像帧中攫取目标图像;
使用深度学习模型对从所述第二图像帧中攫取的目标图像进行处理,生成所述目标图像的第二三维模型。
6.根据权利要求5所述的目标跟踪方法,其特征在于,所述使用深度学习模型对从所述第一图像帧中攫取的目标图像进行处理,生成所述目标图像的第一三维模型,包括:在从所述第一图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从所述第一图像帧中攫取的目标图像进行插值处理,使从所述第一图像帧中攫取的目标图像的分辨率达到预设分辨率;
所述使用深度学习模型对从所述第二图像帧中攫取的目标图像进行处理,生成所述目标图像的第二三维模型,包括:在从所述第二图像帧中攫取的目标图像的分辨率小于预设分辨率时,使用人工智能算法对从所述第二图像帧中攫取的目标图像进行插值处理,使从所述第二图像帧中攫取的目标图像的分辨率达到预设分辨率。
7.根据权利要求1所述的目标跟踪方法,其特征在于,所示使用所述第一三维模型对所述视频图像中的目标图像进行追踪,包括:
对于所述视频图像中的第一图像帧之后的每一图像帧,分析获得所有疑似目标图像;
将每一疑似目标图像与所述第一三维模型进行比对;
在所述图像帧中的任一疑似目标图像与所述第一三维模型匹配时,在所述图像帧中突出显示与所述第一三维模型匹配的疑似目标图像。
8.根据权利要求1所述的目标跟踪方法,其特征在于,所述目标图像为人的头部或脸部。
9.一种目标跟踪设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述目标跟踪方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述目标跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011050979.5A CN112233142A (zh) | 2020-09-29 | 2020-09-29 | 目标跟踪方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011050979.5A CN112233142A (zh) | 2020-09-29 | 2020-09-29 | 目标跟踪方法、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112233142A true CN112233142A (zh) | 2021-01-15 |
Family
ID=74119486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011050979.5A Pending CN112233142A (zh) | 2020-09-29 | 2020-09-29 | 目标跟踪方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112233142A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
US20160110610A1 (en) * | 2014-10-15 | 2016-04-21 | Sony Computer Entertainment Inc. | Image processor, image processing method, and computer program |
CN106327571A (zh) * | 2016-08-23 | 2017-01-11 | 北京的卢深视科技有限公司 | 一种三维人脸建模方法及装置 |
CN107507269A (zh) * | 2017-07-31 | 2017-12-22 | 广东欧珀移动通信有限公司 | 个性化三维模型生成方法、装置和终端设备 |
CN107862741A (zh) * | 2017-12-10 | 2018-03-30 | 中国海洋大学 | 一种基于深度学习的单帧图像三维重建装置及方法 |
CN108805979A (zh) * | 2018-02-05 | 2018-11-13 | 清华-伯克利深圳学院筹备办公室 | 一种动态模型三维重建方法、装置、设备和存储介质 |
CN110070611A (zh) * | 2019-04-22 | 2019-07-30 | 清华大学 | 一种基于深度图像融合的人脸三维重建方法和装置 |
CN110363858A (zh) * | 2019-06-18 | 2019-10-22 | 新拓三维技术(深圳)有限公司 | 一种三维人脸重建方法及系统 |
CN110796083A (zh) * | 2019-10-29 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、终端及存储介质 |
CN110827383A (zh) * | 2019-11-25 | 2020-02-21 | 腾讯科技(深圳)有限公司 | 三维模型的姿态模拟方法、装置、存储介质和电子设备 |
-
2020
- 2020-09-29 CN CN202011050979.5A patent/CN112233142A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
US20160110610A1 (en) * | 2014-10-15 | 2016-04-21 | Sony Computer Entertainment Inc. | Image processor, image processing method, and computer program |
CN106327571A (zh) * | 2016-08-23 | 2017-01-11 | 北京的卢深视科技有限公司 | 一种三维人脸建模方法及装置 |
CN107507269A (zh) * | 2017-07-31 | 2017-12-22 | 广东欧珀移动通信有限公司 | 个性化三维模型生成方法、装置和终端设备 |
CN107862741A (zh) * | 2017-12-10 | 2018-03-30 | 中国海洋大学 | 一种基于深度学习的单帧图像三维重建装置及方法 |
CN108805979A (zh) * | 2018-02-05 | 2018-11-13 | 清华-伯克利深圳学院筹备办公室 | 一种动态模型三维重建方法、装置、设备和存储介质 |
CN110070611A (zh) * | 2019-04-22 | 2019-07-30 | 清华大学 | 一种基于深度图像融合的人脸三维重建方法和装置 |
CN110363858A (zh) * | 2019-06-18 | 2019-10-22 | 新拓三维技术(深圳)有限公司 | 一种三维人脸重建方法及系统 |
CN110796083A (zh) * | 2019-10-29 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、终端及存储介质 |
CN110827383A (zh) * | 2019-11-25 | 2020-02-21 | 腾讯科技(深圳)有限公司 | 三维模型的姿态模拟方法、装置、存储介质和电子设备 |
Non-Patent Citations (1)
Title |
---|
杨露菁: "智能图像处理及应用", 31 March 2019, 中国铁道出版社有限公司, pages: 181 - 182 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | PDR-Net: Perception-inspired single image dehazing network with refinement | |
CN108198154B (zh) | 图像去噪方法、装置、设备及存储介质 | |
CN110222787B (zh) | 多尺度目标检测方法、装置、计算机设备及存储介质 | |
CN108573222B (zh) | 基于循环对抗生成网络的行人图像遮挡检测方法 | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
CN111062880A (zh) | 一种基于条件生成对抗网络的水下图像实时增强方法 | |
CN109377555B (zh) | 自主水下机器人前景视场三维重建目标特征提取识别方法 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
JP2015176169A (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN111967319B (zh) | 基于红外和可见光的活体检测方法、装置、设备和存储介质 | |
CN111696196A (zh) | 一种三维人脸模型重建方法及装置 | |
KR20210042432A (ko) | 방사선 치료 계획 수립을 위한 인공지능 기반의 장기 및 종양 이미지 분할 시스템 및 방법 | |
CN115424088A (zh) | 图像处理模型训练方法以及装置 | |
Agrawal et al. | Dense haze removal by nonlinear transformation | |
CN110276831A (zh) | 三维模型的建构方法和装置、设备、计算机可读存储介质 | |
CN111784624A (zh) | 目标检测方法、装置、设备及计算机可读存储介质 | |
CN113657528A (zh) | 图像特征点提取方法、装置、计算机终端及存储介质 | |
KR102192016B1 (ko) | 의미 인식 기반의 이미지 보정 방법 및 그를 위한 장치 | |
CN113870099A (zh) | 一种图片颜色转换方法、装置、设备及可读存储介质 | |
CN112233142A (zh) | 目标跟踪方法、设备及计算机可读存储介质 | |
CN112288861B (zh) | 一种基于单张照片的人脸三维模型自动构建方法及系统 | |
CN115188039A (zh) | 一种基于图像频域信息的深度伪造视频技术溯源方法 | |
CN115082992A (zh) | 人脸活体检测方法、装置、电子设备及可读存储介质 | |
CN113989814A (zh) | 图像生成方法、装置、计算机设备及存储介质 | |
CN113706436A (zh) | 一种基于自监督生成对抗学习背景建模的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |