CN111512344A - 使用增强用生成式对抗神经网络从cad数据生成合成深度图像 - Google Patents
使用增强用生成式对抗神经网络从cad数据生成合成深度图像 Download PDFInfo
- Publication number
- CN111512344A CN111512344A CN201880062225.6A CN201880062225A CN111512344A CN 111512344 A CN111512344 A CN 111512344A CN 201880062225 A CN201880062225 A CN 201880062225A CN 111512344 A CN111512344 A CN 111512344A
- Authority
- CN
- China
- Prior art keywords
- image
- noise
- gan
- free
- engine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title description 29
- 230000003042 antagnostic effect Effects 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000009877 rendering Methods 0.000 claims abstract description 23
- 238000012546 transfer Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 230000002708 enhancing effect Effects 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 10
- 238000004088 simulation Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 238000001994 activation Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/32—Address formation of the next instruction, e.g. by incrementing the instruction counter
- G06F9/322—Address formation of the next instruction, e.g. by incrementing the instruction counter for non-sequential address
- G06F9/328—Address formation of the next instruction, e.g. by incrementing the instruction counter for non-sequential address for runtime instruction patching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Image Analysis (AREA)
- Computer Graphics (AREA)
Abstract
一种用于通过增强从3D模型渲染的模拟图像来生成真实深度图像的系统和方法,包括渲染引擎,被配置为通过相对于目标3D CAD模型渲染各种姿势来渲染无噪声2.5D图像;噪声传递引擎,被配置为对无噪声2.5D图像施加真实噪声;以及背景传递引擎,被配置为向无噪声2.5D图像添加伪现实场景相关的背景。噪声传递引擎被配置为基于通过第一生成式对抗网络(GAN)实现的、无噪声2.5D图像到由目标传感器生成的真实2.5D扫描的映射,来学习噪声传递。背景传递引擎被配置为基于通过第二GAN实现的、对第一GAN的输出数据作为输入数据以及对应的真实2.5D扫描作为目标数据的处理,来学习背景生成。
Description
技术领域
本申请涉及人工智能。更具体地,本申请涉及将人工智能应用于生成图像。
背景技术
在计算机视觉应用中的最新进展,例如识别和重建,已被用大量准确标记数据训练的深度神经网络所支配。例如,训练的神经网络可用于处理给定的图像输入并识别图像中的对象。图像中对象的识别具有多种应用。但是,对神经网络的训练需要使用标签来收集和注释庞大的数据集,这是一项繁琐的工作,且在某些情况下是不可能完成的任务。典型的训练数据集至少需要大约10,000张图像才能获得所需的对象识别精度。使用传感器设备获得超过10,000张图像,并在每个图像上包含注释信息(例如捕获姿势),需要大量的精力。用于生成训练数据的某些方法仅依赖于使用3D渲染引擎从3D模型合成的渲染数据。由于合成扫描与传感器设备获得的I扫描之间存在差异,因此此类方法的结果不充足。特别是,合成扫描基于干净的渲染,并且在真实传感器产生的扫描中缺少噪声和背景。结果,当分析传感器扫描时,此类合成扫描无法在运行时正确训练神经网络以识别对象。
先前的工作试图统计地模拟噪声损伤并将其应用于深度图像。这种基于模拟的管线在某些特定条件下难以再现真实设备的扫描质量。例如,某些传感器包括未知的后处理和图像增强处理。无法准确模拟真实扫描的其他原因包括模拟引擎与真实世界环境之间的差距,例如环境照明、表面材料、某些光学效果等。
发明内容
根据本公开的实施方式的各方面包括通过增强从3D模型渲染的模拟图像来生成真实深度图像的过程和系统。提供了渲染引擎,以通过相对于目标3D CAD模型渲染各种姿势来渲染无噪声2.5D图像。提供了噪声传递引擎以对无噪声2.5D图像施加真实噪声,以及提供了背景传递引擎以向无噪声2.5D图像添加伪真实场景相关的背景。噪声传递引擎的训练包括基于通过第一生成式对抗网络(GAN)实现的、无噪声2.5D图像到目标传感器生成的真实2.5D扫描的映射,学习噪声传递。训练背景传递引擎包括基于通过第二GAN实现的、对第一GAN的输出数据作为输入数据以及对应的真实2.5D扫描作为目标数据的处理,来学习背景生成。
根据本公开的实施方式的经训练的神经网络管线的优点是基于3D CAD模型从模拟图像生成非常大量的真实深度图像。这样的深度图像可用于训练特定于应用的分析模型,而无需依赖于访问难以获取和精确标注的、来自传感器的大量真实图像数据。
附图说明
参照以下附图描述了本实施方式的非限制性和非穷举性的实施方式,其中,除非另有说明,否则在整个附图中,相同的附图标记表示相同的元件。
图1示出根据本公开的一个或多个实施方式的通过第一生成式对抗神经网络学习噪声传递的示例的流程图。
图2示出根据本公开的一个或多个实施方式的通过第二生成式对抗神经网络学习背景传递的示例的流程图。
图3是使用图1和图2的网络从3D模型生成真实深度图像的管线示例的流程图。
图4示出根据本公开的一个或多个实施方式的,用于生成真实深度图像的系统的模块化结构的示例。
图5示出根据本公开的一个或多个实施方式生成的真实深度图像的应用特定的实现方式的示例。
图6示出可以在其中实现本公开的实施方式的示例性计算环境。
具体实施方式
公开了用于从模拟由图像传感器对对象的深度扫描的合成深度图像生成增强的深度图像的方法和系统。通过神经网络进行机器学习被用于从实际的传感器扫描中提取模拟的传感器噪声,其可被传递到模拟的深度渲染中。可以训练另一组神经网络以从训练数据集中提取模拟的背景信息,其也可以被传递到模拟的深度渲染中。根据本公开的实施方式的形成的管线的、经训练的神经网络的应用包括处理3D CAD模型图像、渲染模拟深度图像、将真实噪声和背景信息传递到模拟深度图像上以及从而生成真实深度图像。所得的真实深度图像可被用作训练数据,以供特定应用分析模型的神经网络学习,例如与对象识别相关的计算机视觉算法。与试图仅依赖于模拟训练数据的传统的基于深度的对象识别系统不同,根据本公开生成的真实深度图像向对象识别系统提供了优越的训练数据,从而产生更准确的对象识别。
图1示出根据本公开的一个或多个实施方式的通过第一生成式对抗神经网络学习噪声传递的示例的流程图。本公开的视觉识别系统可以应用神经网络,例如深度生成式对抗网络(GAN),其可以学习与深度传感器有关的噪声成分。在一个实施方式中,学习过程100被配置为生成用于噪声传递引擎的训练数据。为了初始化神经网络的学习,在阶段101,由加标签的过程生成标准训练数据集。给定用于视觉识别学习的一组对象,可以提供用于每个对象或每个对象组的3D CAD模型107,诸如对象或组件系统的工程设计渲染。从3D CAD模型107,可以通过渲染引擎111生成合成图像,将其渲染为无噪声2.5D图像114。对于每个3DCAD模型107,可以对应于各种带标注的姿势105渲染多个合成图像(例如,虚拟深度传感器的模拟深度图像)。与传感器捕获的扫描图像不同,无噪声2.5D图像114没有背景信息,因为3D CAD模型是作为干净的图像生成的。利用扫描对应于3D CAD模型107渲染的对象,真实的2.5D扫描103可以由一个或多个待模拟的实际的传感器捕获。通过训练来自特定传感器类型的少量图像,学习的模型变成特定于传感器的,而不是特定于应用或对象的。因此,可以实现真实深度扫描,而该模型使用的真实2.5D扫描仅需一种传感器类型就可以进行训练。可以使用渲染为掩码的无噪声2.5D图像114从真实2.5D扫描103中裁剪背景。这允许目标图像更清楚地表示目标对象,而不会出现充当噪声的背景信息。噪声传递引擎121的输入可以包括无噪声2.5D图像114。
在一个实施方式中,深度传感器模拟引擎115可以通过使用与生成无噪声2.5D图像114相同的3D CAD模型107和带标注的姿势数据105,另外生成代表对象的伪真实深度图像,没有背景信息的输入数据作为模拟的2.5D深度扫描116。作为示例,对于每个画面,可以将两个生成的图像、无噪声2.5D图像114和伪真实扫描116堆叠(例如,整理)为单个图像(例如2通道深度图像)以及作为噪声传递引擎121的输入125接收。在2通道图像中,无噪声通道向网络121提供有关所描绘场景的干净深度信息,而已经包含模拟噪声的信道有助于网络121更快、更有效地收敛。
噪声传递引擎121可以被配置为具有判别器神经网络122和生成器神经网络123的图像到图像GAN架构。在一个实施方式中,判别器神经网络122可以被配置为具有带泄露ReLU和sigmoid激活的深层卷积网络用于输出。在训练的每次迭代,判别器网络122可以使用生成器的最新状态,将原始合成图像以及目标124真实的一个(“真实的”一对)或来自生成器的增强输出126(“假的”一对)作为输入125,堆叠成单个图像。判别器网络122的功能包括从“真实的”配对中识别“假的”配对,其中激活层代表演绎,每个激活代表对输入数据的图像块的预测。判别器网络122可以应用二进制交叉熵损失函数。在一个实施方式中,生成器神经网络123可以被配置为U-Net架构,其中合成深度数据作为输入,并且激活层返回增强的图像。为了训练生成器123以逼迫模拟输入数据类似于真实目标数据并欺骗判别器122,生成器123的损失函数可以是输出图像和目标图像的交叉熵评估以及反向判别器损失的组合。一旦收敛,则噪声传递引擎121的GAN的权重被固定并保存。判别器网络122和生成器网络123都可以被配置为处理多通道深度图像(例如16bpp)。尽管上面描述了用于实现判别器神经网络122和生成器神经网络123的示例,但其他变体可以用于实现噪声传递引擎121。
图2示出根据本公开的一个或多个实施方式的通过第二生成式对抗神经网络学习背景传递的示例的流程图。在实施方式中,学习过程200被配置为生成用于背景传递引擎221的神经网络的训练数据。与被训练以学习并再现所选深度传感器的一般噪声的噪声传递引擎121的神经网络不同,背景传递引擎221学习并掌握所选训练数据集的背景环境的复杂的上下文的分布。一经训练,应用于给定图像的模拟背景将因此类似于训练数据集的模拟背景。
为了初始化对背景传递引擎221的GAN的学习,在阶段101通过标记处理来生成与用于噪声传递引擎121的训练相同的标准训练数据集。给定用于视觉识别学习的一组对象,可以提供每个对象的3D CAD模型107,例如对象或组件系统的工程设计渲染。从3D CAD模型307,合成图像可以由渲染引擎111生成,并由受过训练的噪声传递引擎121处理,用于背景传递引擎221的GAN的输入。带标注的姿势105的真实深度扫描103被接收为背景传递引擎221的GAN的目标数据。与对噪声传递引擎121的训练不同(其中从真实扫描103中删除了背景),通过使用包含背景的目标图像数据,背景传递引擎的学习成为可能。从噪声传递引擎121输出的相应输入图像是由噪声传递引擎121的GAN增强的单通道伪真实图像。
背景传递引擎221可以被配置为具有判别器神经网络222和生成器神经网络223的图像到图像GAN体系结构。在一个实施方式中,判别器网络222可以类似于判别器网络122配置。生成器网络223可以被配置为具有与生成器网络123相同的架构,但是具有损失函数,该损失函数可以被编辑以通过使用输入数据作为二进制掩码和Hadamard乘积来严重惩罚图像前景的变化。在训练的每次迭代中,判别器网络222可以将噪声传递引擎121的增强输出作为输入225,并且使用生成器223的最新状态,将作为目标224(即“真实的”一对)的真实扫描103或来自生成器223的增强输出226(即“假的”一对)堆叠成单个图像。判别器网络222的功能包括从“真实的”配对中识别“假的”配对,其中激活层代表演绎,每个激活代表对输入数据的图像块的预测。判别器网络222可以应用二进制交叉熵损失函数。在一个实施方式中,生成器神经网络223可以被配置为U-Net架构,其中来自噪声传递引擎121的合成深度数据作为输入225,并且激活层返回增强图像作为输出226。为了训练生成器223以使得模拟输入数据类似于真实目标数据并欺骗判别器222,生成器223的损失函数可以是输出图像和目标图像的交叉熵评估以及反向判别器损失的组合。一旦收敛,就可以固定并保存背景传递引擎221的GAN的权重,这完成了对用于视觉识别应用的深度图像生成的整个管线的训练。训练之后,应将建议的管线应用到明显不同的环境中,例如新的目标域,可以通过关于来自新目标域的真实图像103的小数据集进行的完善调整会话,来对背景传递引擎221进行微调,以根据需要生成其他背景数据。
图3是使用图1和图2的网络从3D模型生成深度图像的管线的示例的流程图。在一个实施方式中,可以通过将经训练的噪声传递引擎121和经训练的背景传递引擎221联接到渲染引擎111来实现管线300,从而可以从任何给定的3D CAD模型307中生成真实深度图像。在噪声传递引擎121的GAN上执行的训练使得GAN能够学习目标对象的环境的统计分布,而在背景传递引擎221的GAN上执行的训练学习目标对象的背景的统计分布。因此,可以将具有目标对象的任何3D CAD模型呈现给管线300,该目标对象包括在噪声传递引擎121和背景传递引擎221的神经网络训练中。由于噪声传递引擎121和背景传递引擎221提供的真实噪声和背景信息,在输出325处产生的图像生成将使用更准确的深度图像信息进行增强。在一个实施方式中,渲染引擎111可以包括深度传感器模拟引擎115,以生成模拟的2.5D扫描以与相应的无噪声2.5D图像(每对形成输入到噪声传递引擎121的2通道深度图像)堆叠,这可以改善神经网络的操作。
图4示出了根据本公开的一个或多个实施方式的用于学习合成图像的噪声和背景传递的系统的模块化结构的示例。处理器410可以被配置为执行作为程序模块存储在存储器401中的可执行指令,该可执行指令可以包括各种程序模块,包括合成图像引擎402、噪声传递引擎403和背景传递引擎404。在一个实施方式中,如上面关于图1中所示的训练过程所描述的,合成图像引擎402可以包含生成用于噪声传递引擎403的机器学习的模拟2.5D深度图像的算法,由此,训练数据使噪声传递引擎403能够将合成图像映射到对应的真实捕获(不包括图像背景)。如上面关于图2所示的训练过程所描述的,经训练的噪声传递引擎403可以通过处理来自3D CAD模型的模拟深度扫描来生成用于背景传递引擎404的训练数据,以生成没有图像背景的增强的2.5D深度图像。可以训练背景传递引擎404以将伪真实场景背景映射到没有背景的模拟的2.5D深度图像。2.5D深度图像的前景信息是固定的,并且不能由背景传递引擎404改变,这使得背景传递引擎仅专注于背景生成。一旦训练了噪声传递引擎403和背景传递引擎404,就可以由合成图像引擎402、噪声传递引擎403和背景传递引擎404实现管线,以处理来自3D CAD模型的模拟图像,以生成真实深度图像而无需来自传感器捕获的输入。
图5示出了根据本公开的一个或多个实施方式的经训练的系统实现的对象识别应用的示例。在一个实施方式中,本公开的方法和系统可以生成真实深度图像,其可以用作用于神经网络的训练数据以学习对象识别。一旦由深度图像训练,这样的对象识别网络就可以接收由传感器设备捕获的对象的扫描或图像,并识别一个或多个识别的对象。如图5所示,在特定于应用训练过程501期间,诸如计算机处理器之类的控制器521可以执行对象识别网络511的学习算法,该对象识别网络接受标注有标签505的真实深度图像325的输入。例如,对象识别网络511可以执行分类处理,由此神经网的各层以正向和反向传播进行操作,以学习图像325中的对象的分类。对象识别网络511的学习还可以包括图像325中对象的特征识别。所学习的特征可以被映射到目标对象并且被存储在对象特征数据库中。在训练过程501之后,在特定于应用的运行时过程502期间,经训练的对象识别网络511可以由控制器521操作以执行诸如对象识别之类的特定于应用的任务。传感器扫描或图像521可以被馈送到网络511,并且基于训练,可以从扫描或图像521中识别学习到的特征。控制器521可以在网络511中执行后处理提取算法,以从对象特征数据库531中提取映射数据,并在传感器扫描525中识别一个或多个对象。例如,控制器可以将诸如映射到输入扫描或图像525的旋转和平移矢量数据之类的特征表示信息与对象特征数据库531进行匹配,并标识相应的对象。对象识别输出541可以是基于搜索组件库存数据库531的已识别对象的列表。
图6示出可以在其中实现本公开的实施方式的示例性计算环境。如图6所示,计算环境600包括计算机系统610,其可以包括诸如系统总线621之类的通信机制或用于在计算机系统610内传递信息的其他通信机制。计算机系统610还包括与系统总线621联接的一个或多个处理器620,用于处理信息。
处理器620可以包括一个或多个中央处理单元(CPU),图形处理单元(GPU)或本领域中已知的任何其他处理器。更一般而言,本文所描述的处理器是用于执行存储在计算机可读介质上的机器可读指令以执行任务的设备,并且可以包括硬件和固件中的任何一个或组合。处理器还可包括存储用于执行任务的可执行的机器可读指令的存储器。处理器通过操纵、分析、修改、转换或传递供可执行过程或信息设备使用的信息、和/或通过将信息路由到输出设备来对信息起作用。处理器可以例如使用或包括计算机,控制器或微处理器的能力,并且可以使用可执行指令来进行调节,以执行通用计算机没有执行的特殊目的功能。处理器可以包括任何类型的合适处理单元,包括但不限于中央处理单元、微处理器、精简指令集计算机(RISC)微处理器、复杂指令集计算机(CISC)微处理器、微控制器、应用程序专用集成电路(ASIC)、现场可编程门阵列(FPGA)、片上系统(SoC)、数字信号处理器(DSP)等。此外,处理器620可以具有任何合适的微体系结构设计,包括任何数量的组成组件,诸如,例如寄存器、多路复用器、算术逻辑单元、用于控制对高速缓存存储器的读/写操作的高速缓存控制器、分支预测器,或类似的。处理器的微体系结构设计能够支持多种指令集中的任何一种。处理器可以与能够在其间进行交互和/或通信的任何其他处理器联接(电的方式和/或包括可执行组件)。用户界面处理器或生成器是包括用于生成显示图像或其一部分的电子电路或软件或两者的组合的已知元件。用户界面包括一个或多个使得用户能够与处理器或其他设备进行交互的显示图像。
系统总线621可以包括系统总线、存储器总线、地址总线或消息总线中的至少一种,并且可以允许在计算机系统610的各个组件之间交换信息(例如,数据(包括计算机可执行代码)、信令等)。系统总线621可以包括但不限于存储器总线或存储器控制器、外围总线、加速图形端口等。系统总线621可以与任何合适的总线架构相关联,包括但不限于工业标准架构(ISA)、微通道架构(MCA)、增强型ISA(EISA)、视频电子标准协会(VESA)架构、加速图形端口(AGP)架构、外围组件互连(PCI)架构、PCI Express架构、国际个人计算机存储卡协会(PCMCIA)架构、通用串行总线(USB)架构等。
继续参考图6,计算机系统610还可以包括联接到系统总线621的系统存储器630,用于存储信息和将由处理器620执行的指令。系统存储器630可包括易失性和/或非易失性存储器形式的计算机可读存储介质,例如只读存储器(ROM)631和/或随机存取存储器(RAM)632。RAM632可以包括其他动态存储设备(例如,动态RAM、静态RAM、以及同步DRAM)。ROM 631可以包括其他静态存储设备(例如,可编程ROM、可擦除PROM和电可擦除PROM)。另外,系统存储器630可用于在处理器620执行指令期间存储临时变量或其他中间信息。可以在ROM 631中存储基本输入/输出系统633(BIOS),该基本输入/输出系统633(BIOS)包含诸如在启动期间帮助在计算机系统610内的元件之间传递信息的基本例行程序。RAM 632可以包含数据和/或程序模块,这些数据和/或程序模块可以被处理器620立即访问和/或当前被其操作。系统存储器630可以附加地包括例如操作系统634、应用程序635和其他程序模块636。
操作系统634可以被加载到存储器630中,并且可以提供在计算机系统610上执行的其他应用软件与计算机系统610的硬件资源之间的接口。更具体地,操作系统634可以包括一组用于管理计算机系统610的硬件资源以及向其他应用程序提供公共服务(例如,管理各种应用程序之间的存储器分配)的计算机可执行指令。在某些示例实施方式中,操作系统634可以控制被描绘为存储在数据存储器640中的一个或多个程序模块的执行。操作系统634可以包括现在已知或将来可以开发的任何操作系统,包括但不限于任何服务器操作系统、任何主机操作系统或任何其他专有或非专有操作系统。
根据本公开的实施方式,应用程序635可以是一组计算机可执行指令,用于执行合成图像生成以及对用于深度扫描生成的噪声和背景传递引擎的训练。
计算机系统610还可以包括磁盘/介质控制器643,其联接到系统总线621,以控制一个或多个用于存储信息和指令的存储设备,例如磁性硬盘641和/或可移动介质驱动器642(例如,软盘驱动器、光盘驱动器、磁带驱动器、闪存驱动器和/或固态驱动器)。可以使用适当的设备接口(例如,小型计算机系统接口(SCSI)、集成设备电子设备(IDE)、通用串行总线(USB)或FireWire)将存储设备640添加到计算机系统610。根据本公开的实施方式,存储设备641、642可以在计算机系统610的外部,并且可以用于存储图像处理数据。
计算机系统610还可以包括联接到系统总线621的显示器控制器665,以控制显示器或监视器666,例如阴极射线管(CRT)或液晶显示器(LCD),用于将信息显示给计算机用户。计算机系统包括用户输入接口660和一个或多个输入设备,例如用户终端661,其可以包括键盘、触摸屏、平板电脑和/或点击设备,用于与计算机用户交互并向处理器620提供信息。显示器666可以提供触摸屏界面,该触摸屏界面允许输入来补充或替换用户终端设备661进行的方向信息和命令选择的通信。
计算机系统610可以响应于处理器620执行包含在诸如系统存储器630的存储器中上的一个或多个指令的一个或多个序列,来执行本发明实施方式的一部分或全部处理步骤。这样的指令可以从诸如磁性硬盘641或可移动介质驱动器642的另一计算机可读介质读取到系统存储器630中。磁性硬盘641可以包含一个或多个本发明的实施方式使用的数据存储和数据文件。数据存储可包括但不限于数据库(例如,关系型、面向对象等),文件系统、平面文件、分布式数据存储(其中数据存储在计算机网络的多个节点上)、对等网络数据存储等。处理器620还可以用在多处理布置中以执行系统存储器630中包含的一个或多个指令序列。在替代实施方式中,可以使用硬连线电路代替软件指令或与软件指令结合。因此,实施方式不限于硬件电路和软件的任何特定组合。
如上所述,计算机系统610可以包括至少一个计算机可读介质或存储器,用于保存根据本发明的实施方式编程的指令并且用于包含本文描述的数据结构、表、记录或其他数据。如本文所使用的术语“计算机可读介质”是指参与向处理器620提供指令以供执行的任何介质。计算机可读介质可以采用许多形式,包括但不限于非暂时性、非易失性介质、易失性介质和传递介质。非易失性介质的非限制性示例包括光盘、固态驱动器、磁盘和磁光盘,例如磁性硬盘641或可移动介质驱动器642。易失性介质的非限制性示例包括动态存储器,例如作为系统存储器630。传递介质的非限制性示例包括同轴电缆、铜线和光纤、包括构成系统总线621的线。传递介质也可以采用声波或光波的形式,例如在无线电波和红外数据通信过程中产生的那些。
用于执行本公开的操作的计算机可读介质指令可以是汇编程序指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据或以一种或多种编程语言的任意组合编写的源代码或目标代码,该编程语言包括面向对象的编程语言,例如Smalltalk、C++等,以及常规的过程编程语言,例如“C”编程语言或类似的编程语言。计算机可读程序指令可以完全在用户计算机上执行,部分在用户计算机上执行,作为独立软件包执行,部分在用户计算机上并且部分在远程计算机上或完全在远程计算机或服务器上执行。在后一种情况下,远程计算机可以通过任何类型的网络(包括局域网(LAN)或广域网(WAN))连接到用户的计算机,或者可以与外部计算机建立连接(例如,通过使用Internet服务提供商的Internet)。在一些实施方式中,包括例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA)的电子电路可以通过利用计算机可读程序指令的状态信息来使电子电路个性化,从而执行计算机可读程序指令,以便执行本公开的多个方面。
本文参考根据本公开的实施方式的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各方面。将理解,流程图和/或框图的每个框以及流程图和/或框图中的框的组合可以由计算机可读介质指令来实现。
计算环境600还可包括计算机系统610,该计算机系统使用与一个或多个远程计算机(例如远程计算设备680)和一个或多个图像传感器设备681(例如可用于捕获真实扫描图像103的深度扫描设备(例如,立体摄像机))等的逻辑连接在网络环境中运行。网络接口670可以使得能够例如经由网络671与其他远程设备680或系统和/或存储设备641、642进行通信。远程计算设备680可以是个人计算机(笔记本电脑或台式机)、移动设备、服务器、路由器、网络PC、对等设备或其他公共网络节点,并且通常包括上面相对于计算机系统610描述的许多或所有元件。当在联网环境中使用时,计算机系统610可以包括调制解调器672,用于通过诸如因特网之类的网络671建立通信。调制解调器672可以经由用户网络接口670或经由另一适当的机制连接至系统总线621。
网络671可以是本领域中通常已知的任何网络或系统,包括因特网、内联网、局域网(LAN)、广域网(WAN)、城域网(MAN)、直接连接或一系列连接,蜂窝电话网络或能够促进计算机系统610与其他计算机(例如,远程计算设备680)之间的通信的任何其他网络或介质。网络671可以是有线的,无线的或其组合。可以使用以太网、通用串行总线(USB)、RJ-6或本领域通常已知的任何其他有线连接来实现有线连接。可以使用Wi-Fi、WiMAX和蓝牙、红外、蜂窝网络、卫星或本领域通常已知的任何其他无线连接方法来实现无线连接。另外,几个网络可以单独工作或彼此通信以促进网络671中的通信。
应当理解,图6描述的存储在系统存储器630中的程序模块、应用、计算机可执行指令、代码等仅是示例性的,并且不是穷举性的,并且被描述为受任何特定模块支持的处理可以替代地分布在多个模块中或由不同模块执行。另外,可以提供各种程序模块、脚本、插件、应用程序编程接口(API)、或本地托管在计算机系统610、远程设备680和/或托管在可通过一个或多个网络671访问的其他计算设备上的任何其他合适的计算机可执行代码,以支持由图6所示的程序模块、应用或计算机可执行代码提供的功能和/或其他或替代功能。此外,功能可以被不同地模块化,使得描述为由图6中所示的程序模块集合共同支持的处理可以由更少或更多数量的模块来执行“操作”,或者被描述为由任何特定模块支持的功能可以至少部分地由另一模块支持。另外,支持本文所述功能的程序模块可以形成一个或多个可以根据任何合适的计算模型(例如客户端-服务器模型、对等模型等)在任何数量的系统或设备上执行的应用程序的一部分。另外,被描述为由图6中描绘的任何程序模块支持的任何功能可以至少部分地在任意数量的设备上以硬件和/或固件来实现。
如本文所使用的,可执行应用程序包括用于调节处理器以实现预定功能的代码或机器可读指令,例如操作系统、上下文数据采集系统或其他信息处理系统的代码或机器可读指令,例如,响应用户命令或输入。可执行过程是用于执行一个或多个处理的代码段或机器可读指令、子例程或代码的其他不同部分或可执行应用的一部分。这些处理可包括接收输入数据和/或参数,对接收的输入数据执行操作和/或响应于接收的输入参数执行功能,以及提供结果输出数据和/或参数。
本文的功能和处理步骤可响应于用户命令自动地或全部地或部分地执行。响应于一个或多个可执行指令或设备操作执行自动执行的活动(包括步骤)而无需用户直接启动活动。
附图的系统和处理不是排他性的。可根据本发明的原理导出其他系统、处理和菜单以实现相同的目的。尽管已经具体特定实施方式描述了本发明,但是应该理解,本文示出和描述的实施方式和变化仅用于说明目的。在不脱离本发明的范围的情况下,本领域技术人员可实现对当前设计的修改。如本文所述,可使用硬件组件、软件组件和/或其组合来实现各种系统、子系统、代理、管理器和处理。本文中的任何权利要求元素都不应根据35U.S.C 112第六款的规定来解释,除非使用短语“用于……的装置”明确叙述该元素。
Claims (15)
1.一种用于通过增强从3D模型渲染的模拟图像来生成真实深度图像的系统,包括:
至少一个存储设备,其存储被配置为一个或多个模块的计算机可执行指令;以及
至少一个处理器,被配置为访问所述至少一个存储设备并执行所述指令,
其中,所述模块包括:
渲染引擎,被配置为通过相对于目标3D CAD模型渲染各种姿势来渲染无噪声2.5D图像;
噪声传递引擎,被配置为对所述无噪声2.5D图像施加真实噪声;以及
背景传递引擎,被配置为向所述无噪声2.5D图像添加伪真实场景相关的背景;
其中,所述噪声传递引擎被配置为基于通过第一生成式对抗网络(GAN)实现的、所述无噪声2.5D图像到由目标传感器生成的真实2.5D扫描的映射,来学习噪声传递;
其中,所述背景传递引擎被配置为基于通过第二GAN实现的、对作为输入数据的所述第一GAN的输出数据以及作为目标数据的对应的真实2.5D扫描的处理,来学习背景生成;以及
其中,在训练所述第一GAN和所述第二GAN之后,通过所述第一GAN与所述第二GAN的串行联接,形成管线,用于运行时操作,以处理由所述渲染引擎生成的渲染的无噪声2.5D图像,以生成真实深度图像。
2.根据权利要求1所述的系统,其中,通过处理来自新目标域的真实图像的数据集以生成与所述新目标域相对应的背景,来完善所述第二GAN的学习。
3.根据权利要求1所述的系统,其中,所述第一GAN和所述第二GAN包括:判别器网络,被配置为具有带泄露线性整流单元和根据sigmoid激活函数定义的输出的深度卷积网络,其中每个激活表示对输入数据的图像块的演绎。
4.根据权利要求3所述的系统,其中,所述第一GAN和所述第二GAN的判别器网络还包括:执行二进制交叉熵评估的损失函数。
5.根据权利要求4所述的系统,其中,所述第二GAN包括损失函数,所述损失函数被配置为将生成的图像与目标图像比较,所述损失函数被编辑以通过使用输入数据作为二进制掩码和Hadamard乘积来严重惩罚前景的任何变化。
6.根据权利要求1所述的系统,其中,所述噪声传递引擎的学习包括使用所述无噪声2.5D图像作为掩码,从真实深度扫描的图像中裁剪背景。
7.根据权利要求1所述的系统,其中,所述模块还包括:深度传感器模拟引擎,被配置成为每个生成的无噪声2.5D图像生成模拟的2.5D扫描,其中所述噪声传递引擎的学习包括将模拟的2.5D扫描和所述无噪声2.5D图像堆叠为2通道深度图像,作为所述噪声传递引擎的输入。
8.根据权利要求1所述的系统,还包括:
对象识别网络,被配置为将所述真实深度图像作为训练数据处理,以学习目标对象的对象分类;
其中,在训练所述对象识别网络之后,由经训练的对象识别网络处理传感器扫描,以使传感器扫描对象特征的特征相互关联,以识别所述传感器扫描中的对象。
9.一种用于通过增强从3D模型渲染的模拟图像来生成真实深度图像的方法,包括:
通过相对于目标3D CAD模型渲染各种姿势来渲染无噪声2.5D图像;
通过噪声传递引擎对所述无噪声2.5D图像施加真实噪声;以及
通过背景传递引擎对所述无噪声2.5D图像添加伪真实场景相关的背景;
其中,所述噪声传递引擎的学习包括基于通过第一生成式对抗网络(GAN)实现的、所述无噪声2.5D图像到由目标传感器生成的真实2.5D扫描的映射的训练过程;
其中,所述背景传递引擎的学习包括基于通过第二GAN实现的额、对作为输入数据的所述第一GAN的输出数据以及作为目标数据的对应的真实2.5D扫描的处理的训练过程;以及
其中,在训练所述第一GAN和所述第二GAN之后,通过所述第一GAN与所述第二GAN的串行联接,形成管线,用于运行时操作,以处理由渲染引擎生成的渲染的无噪声2.5D图像,以生成真实深度图像。
10.根据权利要求9所述的方法,其中,通过处理来自新目标域的真实图像的数据集以生成与所述新目标域相对应的背景,来完善所述第二GAN的学习。
11.根据权利要求9所述的方法,其中,所述第一GAN和所述第二GAN包括:判别器网络,被配置为具有带泄露线性整流单元和根据sigmoid激活函数定义的输出的深度卷积网络,其中每个激活表示对输入数据的图像块的演绎。
12.根据权利要求11所述的方法,其中,所述第一GAN和所述第二GAN的判别器网络还包括:执行二进制交叉熵评估的损失函数。
13.根据权利要求12所述的方法,其中,所述第二GAN包括损失函数,所述损失函数被配置为将生成的图像与目标图像比较,所述损失函数被编辑以通过使用输入数据作为二进制掩码和Hadamard乘积来严重惩罚前景的任何变化。
14.根据权利要求9所述的方法,其中,所述噪声传递引擎的学习包括使用所述无噪声2.5D图像作为掩码,从所述真实深度扫描的图像中裁剪背景。
15.根据权利要求9所述的方法,还包括:由深度传感器模拟引擎为每个生成的无噪声2.5D图像生成模拟的2.5D扫描,其中,所述噪声传递引擎的学习包括将模拟的2.5D扫描和所述无噪声2.5D图像堆叠为2通道深度图像,作为所述噪声传递引擎的输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762542474P | 2017-08-08 | 2017-08-08 | |
US62/542,474 | 2017-08-08 | ||
PCT/US2018/045464 WO2019032481A1 (en) | 2017-08-08 | 2018-08-07 | GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111512344A true CN111512344A (zh) | 2020-08-07 |
Family
ID=63452704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880062225.6A Pending CN111512344A (zh) | 2017-08-08 | 2018-08-07 | 使用增强用生成式对抗神经网络从cad数据生成合成深度图像 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10901740B2 (zh) |
EP (1) | EP3655926A1 (zh) |
CN (1) | CN111512344A (zh) |
WO (1) | WO2019032481A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113947529A (zh) * | 2021-10-14 | 2022-01-18 | 万翼科技有限公司 | 图像增强方法、模型训练方法、构件识别方法及相关设备 |
CN114697571A (zh) * | 2020-12-29 | 2022-07-01 | 爱思开海力士有限公司 | 图像感测装置及其操作方法 |
CN116348906A (zh) * | 2020-10-28 | 2023-06-27 | 高通股份有限公司 | 用于移除视频流中的视频译码伪影的基于神经网络的设备和方法 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11273553B2 (en) * | 2017-06-05 | 2022-03-15 | Autodesk, Inc. | Adapting simulation data to real-world conditions encountered by physical processes |
CN111316291B (zh) * | 2017-11-03 | 2023-06-23 | 西门子股份公司 | 用生成式对抗神经网络分割和去噪深度图像用于识别应用 |
CN108416327B (zh) * | 2018-03-28 | 2022-04-29 | 京东方科技集团股份有限公司 | 一种目标检测方法、装置、计算机设备及可读存储介质 |
WO2020066637A1 (ja) * | 2018-09-28 | 2020-04-02 | パナソニックIpマネジメント株式会社 | 奥行取得装置、奥行取得方法およびプログラム |
US10832450B2 (en) * | 2019-03-27 | 2020-11-10 | GM Global Technology Operations LLC | Semantic preserved style transfer |
US11049239B2 (en) * | 2019-03-29 | 2021-06-29 | GE Precision Healthcare LLC | Deep neural network based identification of realistic synthetic images generated using a generative adversarial network |
CN110264424B (zh) * | 2019-06-20 | 2021-05-04 | 北京理工大学 | 一种基于生成对抗网络的模糊视网膜眼底图像增强方法 |
CN110428388B (zh) * | 2019-07-11 | 2023-08-08 | 创新先进技术有限公司 | 一种图像数据生成方法及装置 |
CN110490960B (zh) * | 2019-07-11 | 2023-04-07 | 创新先进技术有限公司 | 一种合成图像生成方法及装置 |
CN110489661B (zh) * | 2019-07-24 | 2022-04-26 | 武汉大学 | 一种基于生成对抗网络和迁移学习的社交关系预测方法 |
JP7370777B2 (ja) | 2019-09-13 | 2023-10-30 | 株式会社東芝 | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 |
WO2021173637A1 (en) * | 2020-02-25 | 2021-09-02 | Siemens Aktiengesellschaft | Differentiable pipeline for simulating depth scan sensors |
US11347968B2 (en) * | 2020-02-25 | 2022-05-31 | Ford Global Technologies, Llc | Image enhancement for realism |
US11544503B2 (en) * | 2020-04-06 | 2023-01-03 | Adobe Inc. | Domain alignment for object detection domain adaptation tasks |
GB2595728A (en) * | 2020-06-05 | 2021-12-08 | Condense Reality Ltd | Method and apparatus for training a neural network |
CN111563482A (zh) * | 2020-06-18 | 2020-08-21 | 深圳天海宸光科技有限公司 | 基于gan的加油站危险场景图片生成方法 |
US11625591B2 (en) * | 2020-06-26 | 2023-04-11 | Micron Technology, Inc. | Extended memory neuromorphic component |
CN112415514B (zh) * | 2020-11-16 | 2023-05-02 | 北京环境特性研究所 | 一种目标sar图像生成方法及装置 |
CN112465737B (zh) * | 2020-12-07 | 2023-11-07 | 中国工商银行股份有限公司 | 图像处理模型训练方法、图像处理方法及图像处理装置 |
CN112699765A (zh) * | 2020-12-25 | 2021-04-23 | 北京百度网讯科技有限公司 | 评估视觉定位算法的方法、装置、电子设备及存储介质 |
CN113450295B (zh) * | 2021-06-15 | 2022-11-15 | 浙江大学 | 一种基于差分对比学习的深度图合成方法 |
EP4105826A1 (en) | 2021-06-16 | 2022-12-21 | Volkswagen Aktiengesellschaft | Computer-implemented method and system for generating a synthetic training data set for training a machine learning computer vision model |
WO2023277907A1 (en) * | 2021-06-30 | 2023-01-05 | Hewlett-Packard Development Company, L.P. | Synthetic images for object detection |
CN113362258B (zh) * | 2021-07-08 | 2022-10-21 | 南方科技大学 | 白内障患者眼底彩照图像去噪方法、装置、设备及介质 |
US11651554B2 (en) * | 2021-07-30 | 2023-05-16 | The Boeing Company | Systems and methods for synthetic image generation |
US11900534B2 (en) * | 2021-07-30 | 2024-02-13 | The Boeing Company | Systems and methods for synthetic image generation |
CN114882168B (zh) * | 2022-04-08 | 2023-04-18 | 清华大学 | 一种基于视觉的触觉传感器的数字孪生方法及装置 |
CN114897723B (zh) * | 2022-05-05 | 2023-08-01 | 南京航空航天大学 | 一种基于生成式对抗网络的图像生成与加噪方法 |
CN116306231B (zh) * | 2023-02-06 | 2024-01-23 | 大连理工大学 | 基于超声导波深度学习的胶接结构脱粘损伤识别方法和装置 |
GB2623387A (en) * | 2023-04-12 | 2024-04-17 | Imagination Tech Ltd | Learnable image transformation training methods and systems in graphics rendering |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010152870A (ja) * | 2008-11-25 | 2010-07-08 | Sony Corp | 画像処理装置、画像処理方法および画像処理プログラム |
CN105787892A (zh) * | 2016-02-22 | 2016-07-20 | 浙江传媒学院 | 一种基于机器学习的蒙特卡洛噪声去除方法 |
CN106355191A (zh) * | 2016-08-12 | 2017-01-25 | 清华大学 | 一种深度生成网络随机训练算法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3179407B1 (en) * | 2015-12-07 | 2022-07-13 | Dassault Systèmes | Recognition of a 3d modeled object from a 2d image |
WO2018080533A1 (en) | 2016-10-31 | 2018-05-03 | Siemens Aktiengesellschaft | Real-time generation of synthetic data from structured light sensors for 3d object pose estimation |
US20200057831A1 (en) | 2017-02-23 | 2020-02-20 | Siemens Mobility GmbH | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation |
EP3396603B1 (en) * | 2017-04-27 | 2019-12-25 | Dassault Systèmes | Learning an autoencoder |
US10733744B2 (en) * | 2017-05-11 | 2020-08-04 | Kla-Tencor Corp. | Learning based approach for aligning images acquired with different modalities |
-
2018
- 2018-08-07 US US16/636,674 patent/US10901740B2/en active Active
- 2018-08-07 CN CN201880062225.6A patent/CN111512344A/zh active Pending
- 2018-08-07 WO PCT/US2018/045464 patent/WO2019032481A1/en unknown
- 2018-08-07 EP EP18762947.2A patent/EP3655926A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010152870A (ja) * | 2008-11-25 | 2010-07-08 | Sony Corp | 画像処理装置、画像処理方法および画像処理プログラム |
CN105787892A (zh) * | 2016-02-22 | 2016-07-20 | 浙江传媒学院 | 一种基于机器学习的蒙特卡洛噪声去除方法 |
CN106355191A (zh) * | 2016-08-12 | 2017-01-25 | 清华大学 | 一种深度生成网络随机训练算法及装置 |
Non-Patent Citations (3)
Title |
---|
LAN GOODFELLOW: "NIPS 2016 Tutorial:Generative Adversarial Networks", 《CORNELL UNIVERSITY LIBRARY-ARXIV.ORG》 * |
张含阳 等: "对抗网络生成的艺术作品为何比人类艺术家更受欢迎?", 《机器人产业》 * |
王坤峰等: "生成式对抗网络GAN的研究进展与展望", 《自动化学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116348906A (zh) * | 2020-10-28 | 2023-06-27 | 高通股份有限公司 | 用于移除视频流中的视频译码伪影的基于神经网络的设备和方法 |
CN114697571A (zh) * | 2020-12-29 | 2022-07-01 | 爱思开海力士有限公司 | 图像感测装置及其操作方法 |
CN113947529A (zh) * | 2021-10-14 | 2022-01-18 | 万翼科技有限公司 | 图像增强方法、模型训练方法、构件识别方法及相关设备 |
CN113947529B (zh) * | 2021-10-14 | 2023-01-10 | 万翼科技有限公司 | 图像增强方法、模型训练方法、构件识别方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
US10901740B2 (en) | 2021-01-26 |
US20200167161A1 (en) | 2020-05-28 |
EP3655926A1 (en) | 2020-05-27 |
WO2019032481A1 (en) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111512344A (zh) | 使用增强用生成式对抗神经网络从cad数据生成合成深度图像 | |
US11403737B2 (en) | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks | |
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
CN114902294B (zh) | 移动增强现实中的细粒度视觉识别 | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
JP7286013B2 (ja) | ビデオコンテンツ認識方法、装置、プログラム及びコンピュータデバイス | |
CN112884881A (zh) | 三维人脸模型重建方法、装置、电子设备及存储介质 | |
CN112819944A (zh) | 三维人体模型重建方法、装置、电子设备及存储介质 | |
US10902264B2 (en) | Automatic generation of secondary class annotations | |
CN110310299B (zh) | 用于训练光流网络、以及处理图像的方法和装置 | |
CN112560622B (zh) | 虚拟对象动作控制方法、装置及电子设备 | |
JP2023526899A (ja) | 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品 | |
CN113570689A (zh) | 人像卡通化方法、装置、介质和计算设备 | |
CN111382647A (zh) | 一种图片处理方法、装置、设备及存储介质 | |
Zhang et al. | Video extrapolation in space and time | |
CN117336526A (zh) | 视频生成方法、装置、存储介质及电子设备 | |
CN115147547B (zh) | 人体重建方法和装置 | |
CN110728316A (zh) | 一种课堂行为检测方法、系统、装置和存储介质 | |
CN111027376A (zh) | 一种确定事件图谱的方法、装置、电子设备及存储介质 | |
Alam et al. | An empirical study of image captioning using deep learning | |
Chaturvedi et al. | Object recognition using image segmentation | |
Symeonidis et al. | Efficient realistic data generation framework leveraging deep learning-based human digitization | |
Bhuvaneshwari et al. | A novel deep learning SFR model for FR-SSPP at varied capturing conditions and illumination invariant | |
KR102231391B1 (ko) | 키포인트 기반의 비디오 생성 방법 및 장치 | |
CN117292042A (zh) | 3d人脸模型的纹理肤色重建方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200807 |