CN113542759A - 生成对抗神经网络辅助的视频重建 - Google Patents
生成对抗神经网络辅助的视频重建 Download PDFInfo
- Publication number
- CN113542759A CN113542759A CN202110178888.8A CN202110178888A CN113542759A CN 113542759 A CN113542759 A CN 113542759A CN 202110178888 A CN202110178888 A CN 202110178888A CN 113542759 A CN113542759 A CN 113542759A
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- data
- computer
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 250
- 230000003042 antagnostic effect Effects 0.000 title description 2
- 239000013598 vector Substances 0.000 claims abstract description 157
- 238000013507 mapping Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims description 137
- 238000000034 method Methods 0.000 claims description 112
- 238000012545 processing Methods 0.000 claims description 99
- 230000001815 facial effect Effects 0.000 claims description 41
- 239000011159 matrix material Substances 0.000 claims description 33
- 230000010076 replication Effects 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 24
- 210000004209 hair Anatomy 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000008921 facial expression Effects 0.000 claims description 2
- 230000006835 compression Effects 0.000 abstract description 11
- 238000007906 compression Methods 0.000 abstract description 11
- 230000015654 memory Effects 0.000 description 116
- 230000008569 process Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 32
- 238000004891 communication Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 25
- 238000005192 partition Methods 0.000 description 20
- 238000009826 distribution Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 14
- 238000002156 mixing Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 11
- 239000004065 semiconductor Substances 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 9
- 239000012634 fragment Substances 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 239000000203 mixture Substances 0.000 description 8
- 238000013519 translation Methods 0.000 description 8
- 230000014616 translation Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 239000000872 buffer Substances 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 238000007667 floating Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 5
- 239000002131 composite material Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000750 progressive effect Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000012010 growth Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 206010014970 Ephelides Diseases 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 208000003351 Melanosis Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009509 drug development Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000011148 porous material Substances 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000000329 molecular dynamics simulation Methods 0.000 description 1
- 238000012900 molecular simulation Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了生成对抗神经网络辅助的视频压缩和广播。由映射神经网络处理在输入空间中定义的潜码,以产生在中间潜在空间中定义的中间潜码。中间潜码可以用作由合成神经网络处理以生成图像的外观矢量。外观矢量是数据的压缩编码,例如包括人脸、音频和其他数据的视频帧。捕获图像可以在本地设备上转换为外观矢量,并使用与传输捕获图像相比少得多的带宽传输到远程设备。在远程设备处的合成神经网络重建图像用于显示。
Description
要求优先权
本申请是2019年5月21日提交的标题为“用于生成神经网络的基于样式的体系架构(A Style-Based Architecture For Generative Neural Networks)”的美国专利申请No.16/418,317(案卷号741868/18-HE-0369-US03)的部分继续申请,其要求2018年11月14日提交的标题为“用于生成神经网络的基于样式的体系架构(A Style-BasedArchitecture For Generative Neural Networks)”美国临时申请No.62/767,417(案卷号510998/17-HE-0369-US01)和2018年11月15日提交的标题为“用于生成神经网络的基于样式的体系架构(A Style-Based Architecture For Generative Neural Networks)”美国临时申请No.62/767,985(案卷号510893/17-HE-0369-US02)的权益,这些申请的全部内容通过引用并入本文。本申请还要求2020年4月15日提交的标题为“生成神经网络辅助的视频压缩和解压缩(Generative Neural Network Assisted Video Compression andDecompression)”的美国临时申请No.63/010,511(案卷号513138/20-HE-0162-US01)的利益,其全部内容通过引用并入本文。
技术领域
本发明涉及神经网络,并且具体地,涉及一种用于使用特定缩放控制来合成数据的生成器架构。
背景技术
生成对抗网络(GAN)产生的图像的分辨率和质量最近得到了提高。然而,GAN仍然继续充当黑匣子,并且尽管最近做出了努力,但是仍然缺乏对图像合成过程的各个方面的理解,例如,随机特征的起源。潜在空间的性质也知之甚少,并且通常展示的潜在空间内插法没有提供定量的方法来相互比较不同的GAN。需要解决这些问题和/或与现有技术相关的其他问题。
发明内容
基于样式的生成网络架构能够对合成的输出数据(例如图像)进行特定缩放控制。在训练期间,基于样式的生成神经网络(生成器神经网络)包括映射网络和合成网络。在预测期间,可以多次省略、复制或评估映射网络。合成网络可用于生成具有多种属性的高度变化的、高质量的输出数据。例如,当用于生成人类的面部图像时,可能变化的属性是年龄、种族、相机视点、姿势、面部形状、眼镜、颜色(眼睛,头发等)、发型、灯光、背景等。根据任务,生成的输出数据可以包括图像、音频、视频、三维(3D)对象、文本等。
由映射神经网络处理在输入空间中定义的潜码,以产生在中间潜在空间中定义的中间潜码。中间潜码可以用作由合成神经网络处理以生成图像的外观矢量。外观矢量是数据的压缩编码,例如包括人脸、音频和其他数据的视频帧。捕获图像可以在本地设备上转换为外观矢量,并使用与传输捕获图像相比少得多的带宽传输到远程设备。在远程设备处的合成神经网络重构图像用于显示。
公开了一种用于生成对抗神经网络辅助的视频重构的方法,计算机可读介质和系统。获取用于配置合成神经网络的特定于真实或合成对象的复制数据。接收对在视频帧中捕获的人脸的属性进行编码的外观矢量。合成神经网络处理外观矢量,以重构包括由复制数据定义的特征的人脸的图像。
附图说明
图1A示出了根据一个实施例的基于样式的生成器系统的框图。
图1B示出了根据一个实施例的由基于样式的生成器系统生成的图像。
图1C示出了根据一个实施例的用于基于样式的生成的方法的流程图。
图2A示出了根据一个实施例的图1A所示的映射神经网络的框图。
图2B示出了根据一个实施例的图1A中所示的合成神经网络的框图。
图2C示出了根据一个实施例的,用于使用基于样式的生成器系统来施加空间噪声的方法的流程图。
图2D示出了根据一个实施例的GAN系统的框图。
图3示出了根据一个实施例的并行处理单元。
图4A示出了根据一个实施例的图3的并行处理单元内的通用处理集群。
图4B示出了根据一个实施例的图3的并行处理单元的存储器分区单元。
图5A示出了根据一个实施例的图4A的流式多处理器。
图5B是根据一个实施例的使用图3的PPU实现的处理系统的概念图。
图5C示出了其中可以实现各种先前实施例的各种架构和/或功能的示例性系统。
图5D示出了可用于训练和利用机器学习的示例性系统的组件,以用于实现本公开的一些实施例。
图6A示出了适用于实现本公开的一些实施例的示例性视频流系统。
图6B示出了适用于实现本公开的一些实施例的各种外观矢量。
图6C示出了根据一个实施例的用于GAN辅助的视频压缩的方法的流程图。
图6D示出了根据一个实施例的用于GAN辅助的视频重建的方法的流程图。
图7A是用于实现本公开的一些实施例的合成神经网络训练配置的概念图。
图7B是用于实现本公开的一些实施例的包括图7A的投影仪的端到端系统的概念图。
图7C是用于实现本公开的一些实施例的用于生成训练数据的配置的概念图。
图7D是用于实现本公开的一些实施例的使用界标来预测外观矢量的训练配置的概念图。
图7E是用于实现本公开的一些实施例的包括合成神经网络的另一端到端系统的概念图。
图8A是用于实现本公开的一些实施例的另一合成神经网络训练配置的概念图。
图8B是用于实现本公开的一些实施例的又一个合成神经网络训练配置的概念图。
具体实施方式
基于样式的生成网络架构可实现对合成输出的特定缩放控制。基于样式的生成器系统包括映射网络和合成网络。从概念上讲,在一个实施例中,由合成网络的不同层生成的特征图(包含表示输出数据的内容的空间变化信息,其中每个特征图是中间激活的一个通道)基于由映射网络提供的样式控制信号来修改。可以从相同或不同的潜码(latentcodes)生成用于合成网络的不同层的样式控制信号。如本文所用,术语“样式控制信号”控制对象的合成图像的属性,例如姿势,一般的发型,面部形状,眼镜,颜色(眼睛,头发,灯光)和微结构。潜码可以是从例如高斯分布得出的随机的N维矢量。可以从相同或不同的映射网络生成用于合成网络的不同层的样式控制信号。另外,可以将空间噪声注入到合成网络的每一层中。
图1A示出了根据一个实施例的基于样式的生成器系统100的框图。基于样式的生成器系统100包括映射神经网络110,样式转换单元115和合成神经网络140。在训练合成神经网络140后,当预先计算由样式转换单元115产生的一个或更多个中间潜码和/或样式信号时,可以在没有映射神经网络110的情况下部署合成神经网络140。在一个实施例中,可以包括附加的样式转换单元115,以将由映射神经网络110生成的中间潜码转换为第二样式信号,或者将不同的中间潜码转换为第二样式信号。一个或更多个附加的映射神经网络110可以被包括在基于样式的生成器系统100中,以从潜码或附加的潜码中产生附加的中间潜码。
基于样式的生成器系统100可以由程序,定制电路或定制电路和程序的组合来实现。例如,可以使用GPU(图形处理单元),CPU(中央处理单元)或能够执行本文所述操作的任何处理器来实现基于样式的生成器系统100。此外,本领域普通技术人员将理解,执行基于样式的生成器系统100的操作的任何系统都在本发明的实施例的范围和精神内。
常规地,通过输入层(诸如前馈神经网络的第一层)将潜码提供给生成器。相反,在一个实施例中,代替接收潜码,合成神经网络140从学习的常数开始,并且潜码被输入到映射神经网络110。在一个实施例中,第一中间数据是学习的常数。给定输入潜在空间中的潜码z,则非线性映射网络首先会产生中间潜码映射神经网络110可以被配置为实现非线性映射网络。在一个实施例中,输入潜在空间和中间潜在空间中的输入和输出激活的尺寸相等(例如512)。在一个实施例中,使用8层MLP(多层感知器,即仅由全连接层组成的神经网络)来实现映射函数f。
尽管常规的生成器仅通过生成器的输入层馈送潜码,但是映射神经网络110是将输入潜码z映射到中间潜在空间以产生中间潜码w。样式转换单元115将中间潜码w转换为第一样式信号。一个或更多个中间潜码w被转换成包括第一样式信号和第二样式信号的空间不变样式。与传统的样式传递技术相比,空间不变样式是根据矢量(即中间潜码w)而不是从示例图像计算得出的。一个或更多个中间潜码w可以由一个或更多个映射神经网络110针对一个或更多个相应潜码z生成。合成神经网络140根据样式信号处理第一中间数据(例如,被编码为特征图的学习常数),例如,将第一中间数据的密度从4×4增加到8×8,并持续直到达到输出数据密度为止。
在一个实施例中,样式转换单元115执行仿射变换。样式转换单元115可以被训练为在合成神经网络140的训练期间学习仿射变换。第一样式信号控制在合成神经网络140的第一层120处的操作以产生修改的第一中间数据。在一个实施例中,第一样式信号控制合成网络140的第一层120内的自适应实例规一化(AdaIN)操作。在一个实施例中,AdaIN操作接收一组内容特征图和样式信号并修改内容特征图的一阶统计(即“样式”),以匹配样式信号定义的一阶统计。由第一层120输出的修改的第一中间数据被一个或更多个处理层125处理以生成第二中间数据。在一个实施例中,一个或更多个处理层125包括3×3卷积层。在一个实施例中,一个或更多个处理层125包括3×3卷积层,其后是AdaIN操作,该AdaIN操作接收图1A中未明确示出的附加样式信号。
第二中间数据被输入到合成神经网络140的第二层130。第二样式信号控制第二层130的操作以产生修改的第二中间数据。在一个实施例中,第一样式信号修改在第一中间数据中编码的第一属性,第二样式信号修改在第一中间数据和第二中间数据中编码的第二属性。例如,与第二中间数据相比,第一中间数据是粗略数据,并且第一样式在第一层120处被传送到粗略特征图,而第二样式在第二层130处被传送到较高密度的特征图。
在一个实施例中,第二层130对第二中间数据进行上采样并且包括3×3卷积层,随后是AdaIN操作。在一个实施例中,第二样式信号控制合成网络140的第二层130内的AdaIN操作。由第二层130输出的修改后的第二中间数据由一个或更多个处理层135进行处理以生成包括与第二中间数据相对应的内容的输出数据。在一个实施例中,将修改的第二中间数据中的特征的多个(例如32、48、64、96等)通道转换成被编码为颜色通道(例如红色,绿色,蓝色)的输出数据。
在一个实施例中,一个或更多个处理层135包括3×3卷积层。在一个实施例中,输出数据是包括对应于第一缩放的第一属性和对应于第二缩放的第二属性的图像,其中与第二缩放相比,第一缩放更粗糙。第一缩放可以对应于由第一层120处理的特征图的缩放,而第二缩放可以对应于由第二层130处理的特征图的缩放。因此,第一样式信号以第一缩放修改第一属性,并且第二样式信号以第二缩放修改第二属性。
现在将根据用户的需求,给出关于可用于实现前述框架的各种可选架构和特征的更多说明性信息。应该特别注意的是,以下信息是出于说明目的而提出的,不应以任何方式解释为限制。下列任何特征都可以有选择地并入或不排除所描述的其他特征。
图1B示出了根据一个实施例的由基于样式的生成器系统100生成的图像。图像以10242分辨率生成。在其他实施例中,可以以不同的分辨率生成图像。两个不同的潜码用于控制由基于样式的生成器系统100生成的图像的样式。具体而言,样式的第一部分由映射神经网络110和样式转换单元115从顶行中的“源”潜码生成。样式的第二部分由相同或附加的映射神经网络110和相应的样式转换单元115从最左列中的“目标”潜码生成。基于样式的生成器系统100开始于合成神经网络140处的学习的常数输入,并基于潜码调整每个卷积层上图像的“样式”,从而直接控制以不同缩放在特征图中编码的图像属性的强度。换句话说,将来自“源”数据的给定样式集复制到“目标”数据。因此,复制的样式(粗略,中间或精细)是从“源”数据中获取的,而所有其他样式都与“目标”数据中的相同。
样式的第一部分(目标)由合成神经网络140应用,以用样式的第一部分的第一子集替换为样式的第二部分(源)的相应的第二子集来处理学习的常数。在一个实施例中,学习的常数是4×4×512的常数张量。在图1B中的图像的第二,第三和第四行中,样式的第二部分(源)在合成神经网络140的粗略层处替换样式的第一部分(目标)。在一个实施例中,该粗略层对应于粗略的空间密度42-82。在一个实施例中,高级属性(例如姿势,一般发型,面部形状和眼镜)从源中复制,而保持其他属性,例如所有颜色(眼睛,头发,照明)和目标的精细面部特征。
在图1B中的图像的第五和第六行中,样式的第二部分(源)替换了合成神经网络140的中间层处的样式的第一部分(目标)。在一个实施例中,中间层对应空间密度162-322。较小尺度的面部特征,发型,睁开/闭合的眼睛是从源继承的,而来自目标的姿势、一般面部形状和眼镜被保留。最后,在图1B中的图像的最后一行中,样式的第二部分(源)在合成神经网络140的高密度(精细)层处替换样式的第一部分(目标)。在一个实施例中,精细层对应空间密度642-10242。将来自样式的第二部分(源)中的样式用于精细层,继承了来自源中的配色方案和微结构,同时保留了来自目标的姿势和一般面部形状。
基于样式的生成器系统100的体系架构能够通过对样式的特定缩放的修改来控制图像合成。可以将由样式转换单元115执行的映射网络110和仿射变换视为从学习的分布中为每种样式绘制样本的方式,并且合成网络140提供了一种基于样式集合生成新颖图像的机制。每种样式的效果都定位在合成网络140中,即,修改样式的特定子集可以预期仅影响图像的某些属性。
如图1B所示,使用来自至少两个不同潜码的样式信号被称为样式混合或混合正则化。训练期间的样式混合对相邻样式进行去相关,并实现对生成的图像的更细粒度的控制。在一个实施例中,在训练期间,使用两个随机潜码而不是一个来生成给定百分比的图像。当生成这样的图像时,可以选择合成神经网络140中的随机位置(例如,交叉点),其中处理从使用第一潜码生成的样式信号切换到使用第二潜码生成的信号样式。在一个实施例中,两个潜码z1,z2由映射神经网络110处理,并且相应的中间潜码w1,w2控制样式,使得w1适用于交叉点之前,而w2适用于交叉点之后。混合正则化技术防止合成神经网络140假设相邻样式相关。
表1示出了在训练期间启用混合正则化如何显著改善样式的本地化(localization),以在测试时混合了多个潜码的场景中改善的(越低越好)弗雷谢特起始距离(FID)为表示。图1B所示的图像是通过以不同缩放混合两个潜码合成的图像示例。样式的每个子集控制图像的有意义的高级属性。
表1:不同混合正则化比率的FID
混合比率表示启用了混合正则化的训练示例的百分比。在测试期间最多随机选择四个不同的潜码,并且还随机选择不同的潜码之间的交叉点。混合正则化显著提高了对这些不利操作的容忍度。
如通过FID所确认的,由基于样式的生成器系统100生成的图像的平均质量高,并且甚至成功地合成了诸如眼镜和帽子之类的附件。对于图1B中所示的图像,通过使用可以在W而不是Z中执行的所谓的截断技巧来避免从W的极端区域进行采样。请注意,基于样式的生成器系统100可以实现以启用仅选择性地针对低分辨率应用截断,因此高分辨率细节不会受到影响。
考虑到训练数据的分布,低密度的区域表示不佳,因此对于基于样式的生成器系统100来说可能很难学习。训练数据的不均匀分布在所有生成建模技术中都提出了重要的开放问题。然而,已知的是,尽管损失了一些量的变化,但从截断的或缩小的采样空间中绘制潜在矢量趋于可以改善平均图像质量。在一个实施例中,为了改善对基于样式的生成器系统100的训练,将W的质心计算为在一个人脸数据集(例如FFHQ,Flickr-Faces-HQ)的情况下,该点表示一种平均人脸(ψ=0)。给定w的偏差从中心开始按比例缩小为其中ψ<1。在传统的生成建模系统中,即使使用正交正则化,仅神经网络的一个子集适用于这种截断,即使在不改变损失函数的情况下,W空间中的截断也似乎可以可靠地工作。
图1C示出了根据一个实施例的用于基于样式的生成的方法150的流程图。方法150可以由程序,定制电路或定制电路和程序的组合来执行。例如,方法150可以由GPU(图形处理单元),CPU(中央处理单元)或能够执行基于样式的生成器系统100的操作的任何处理器来执行。本领域技术人员将理解,执行方法150的任何系统都在本发明实施例的范围和精神内。
在步骤155,映射神经网络110处理在输入空间中定义的潜码,以产生在中间潜在空间中定义的中间潜码。在步骤160,通过样式转换单元115将中间潜码转换为第一样式信号。在步骤165,将第一样式信号施加在合成神经网络140的第一层120上,以根据第一样式信号修改第一中间数据,以产生修改的第一中间数据。在步骤170,修改的第一中间数据被一个或更多个处理层125处理以产生第二中间数据。在步骤175,将第二样式信号施加在合成神经网络140的第二层130上,以根据第二样式信号修改第二中间数据,以产生修改的第二中间数据。在步骤180,由一个或更多个处理层135处理修改的第二中间数据,以产生包括与第二中间数据相对应的内容的输出数据。
解纠缠存在多种定义,但一个共同的目标是由线性子空间组成的潜在空间,每个子空间控制一个变化因子。然而,潜在空间Z中的因子的每个组合的采样概率需要与训练数据中的对应密度匹配。
基于样式的生成器系统100的主要好处是,中间潜在空间W不必根据任何固定分布来支持采样;通过学习的分段连续映射f(z),得出基于样式的生成器系统100的采样密度。可以将映射调整为“不扭曲(unwarp)”W,以使变化因子变得更加线性。基于样式的生成器系统100自然会趋向于不扭曲W,因为基于解纠缠的表示比基于纠缠的表示生成现实图像应该更容易。这样,训练可以在无监督的情况下,即在事先不知道变化因子的情况下产生较小纠缠的W。
图2A示出了根据一个实施例的图1A所示的映射神经网络110的框图。训练数据的分布可能缺少属性的组合,例如戴着眼镜的孩子。与潜在空间Z相比,在中间潜在空间W中,眼镜和年龄的组合的变化因素的分布变得更加线性。
在一个实施例中,映射神经网络110包括归一化层205和多个全连接层210。在一个实施例中,八个全连接层210顺序地耦合以产生中间潜码。在训练期间学习映射神经网络110的参数(例如权重),并且当部署基于样式的生成器系统100以生成输出数据时,使用该参数来处理输入的潜码。在一个实施例中,映射神经网络110生成一个或更多个中间潜码,其在稍后的时间由合成神经网络140使用以生成输出数据。
人像中有许多可以被认为是随机的属性,例如头发,发茬,雀斑或皮肤毛孔的确切位置。只要随机化遵循正确的分布,就可以在不影响图像感知的情况下将这些方法中的任何一个随机化。生成图像时人为地忽略噪声会导致图像具有无特征的“绘画”外观。特别地,当产生人像时,粗糙的噪声可能导致头发的大规模卷发和较大背景特征的出现,而细微的噪声可能会使头发的卷发更细,背景细节和皮肤毛孔更细。
常规的生成器可能仅基于通过输入层提供的对神经网络的输入来生成随机变化。在训练期间,每当需要伪随机数时,常规生成器就可能被迫学习从较早的激活中生成空间变化的伪随机数。换句话说,伪随机数生成不是故意内置在常规生成器中的。取而代之的是,伪随机数的生成是在训练期间自行出现的,以使常规生成器满足训练目标。生成伪随机数会消耗神经网络的容量,并且难以隐藏生成的信号的周期性,而且并不总是成功的,正如生成的图像中常见的重复模式所证明的那样。相反,基于样式的生成器系统100可以被配置为通过在每次卷积之后添加每像素噪声来避免这些限制。
在一个实施例中,基于样式的生成器系统100配置有直接装置,以通过引入显式噪声输入来生成随机细节。在一个实施例中,噪声输入是由不相关的高斯噪声组成的单通道图像,并且专用噪声图像被输入到合成网络140的一层或更多层。可以使用学习的每特征缩放因子将噪声图像广播到所有特征图,然后将其添加到相应卷积的输出中。
图2B示出了根据一个实施例的图1A所示的合成神经网络140的框图。合成神经网络140包括第一处理块200和第二处理块230。在一个实施例中,处理块200处理4×4分辨率特征图,并且处理块230处理8×8分辨率特征图。在处理块200和230之后,之前和/或它们之间,可以在合成神经网络140中包括一个或更多个附加处理块。
第一处理块200接收第一中间数据,第一空间噪声和第二空间噪声。在一个实施例中,在与(例如,添加到)第一中间数据相结合之前,通过学习的每通道缩放因子来缩放第一空间噪声。在一个实施例中,第一空间噪声,第二空间噪声,第三空间噪声和第四空间噪声是独立的每像素高斯噪声。
第一处理块200还接收第一样式信号和第二样式信号。如先前所解释,可通过根据学习的仿射变换通过处理中间潜码来获得样式信号。学习的仿射变换将w专门化为样式y=(ys,yb),其控制由模块220在合成神经网络140实现的自适应实例归一化(AdaIN)操作。由于其效率和紧凑的表示,AdaIN特别适合在基于样式的生成器系统100中实现。
AdaIN操作已定义
其中每个特征图xi分别进行归一化,然后使用样式y中对应的标量分量进行缩放和偏置。因此,y的维数是特征图的数量的两倍于该层的输入。在一个实施例中,样式信号的维数是施加了样式信号的层中的多个特征图的倍数。与常规样式转移相反,空间不变样式y是从矢量w而不是示例图像中计算出来的。
每个样式信号的影响都定位于合成神经网络140中,即,修改样式信号的特定子集可以预期仅影响输出数据表示的图像的某些属性。了解本地化的原因,考虑由模块220实现的AdaIN运算(等式1)如何首先将每个信道归一化为零均值和单位方差,然后才基于样式信号应用缩放和偏差。如样式所指示,新的每通道统计信息会为后续的卷积操作修改特征的相对重要性,但由于归一化,新的每通道统计信息不依赖于原始统计信息。因此,每个样式信号在被下一个AdaIN操作覆盖之前仅控制预定数量的卷积225。在一个实施例中,在每个卷积之后并且在由另一个模块225处理之前,将缩放的空间噪声添加到特征。
每个模块220之后可以是卷积层225。在一个实施例中,卷积层225将3×3卷积内核应用于输入。在处理块200内,由卷积层225输出的第二中间数据与第二空间噪声组合,并输入到第二模块220,第二模块220应用第二样式信号以生成处理块200的输出。在一个实施例中,在与第二中间数据组合(例如,添加到)之前,通过学习的每通道缩放因子对空间噪声进行缩放。
处理块230接收由处理块200输出的特征图,并且由上采样器235对特征图进行上采样。在实施例中,通过上采样器235对4×4特征图进行上采样以至生成8×8特征图。上采样的特征图被输入到另一个卷积层225以产生第三中间数据。在处理块230内,第三中间数据与第三空间噪声组合,并输入到第三模块220,该第三模块220通过AdaIN操作施加第三样式信号。在一个实施例中,在将第三空间噪声与第三中间数据组合(例如,添加到)之前,通过学习的每通道缩放因子来缩放第三空间噪声。第三模块220的输出由另一个卷积层225处理以产生第四中间数据。第四中间数据与第四空间噪声组合并输入到第四模块220,该第四模块经由AdaIN操作施加第四样式信号。在一个实施例中,在将第四空间噪声与第四中间数据组合(例如,添加到)之前,通过学习的每通道缩放因子来缩放第四空间噪声。
在一个实施例中,输出数据的分辨率为10242,并且合成神经网络140包括18层,每个分辨率为2的幂(42-10242)。可以使用单独的1×1卷积将合成神经网络140的最后一层的输出转换为RGB。在一个实施例中,与具有相同数量的层和特征图的常规生成器中的23.1M相比,合成神经网络140总共具有26.2M可训练参数。
引入空间噪声仅影响输出数据的随机方面,而使整体组成和高级属性(如身份)保持不变。单独的噪声输入到合成神经网络140使得能够将随机变化应用到层的不同子集。将空间噪声输入施加到合成神经网络140的特定层导致与该特定层的尺度匹配的尺度的随机变化。
噪声的影响似乎紧密地定位在合成神经网络140中。在合成神经网络140中的任何点处,都存在着尽快引入新内容的压力,合成神经网络140创建随机变化最简单的方法是依赖于空间噪声输入。一组新的空间噪声可用于合成神经网络140中的每一层,因此没有动机从较早的激活中产生随机效应,从而导致局部效应。因此,噪声仅影响无关紧要的随机变化(与头发,胡须等的梳理不同)。相反,样式信号的更改具有全局效果(更改姿势,身份等)。
在合成神经网络140中,当输出数据是图像时,样式信号会影响整个图像,因为对完整的特征图进行缩放并使用相同的值进行了偏置。因此,可以连贯地控制诸如姿势,照明或背景样式的整体效果。同时,空间噪声被独立地添加到每个像素,因此理想地适合于控制随机变化。如果合成神经网络140试图使用噪声来控制例如姿势,那将导致空间不一致的决定,这将在训练期间受到惩罚。因此,合成神经网络140学习在没有明确指导的情况下适当地使用全局和局部信道。
图2C示出了根据一个实施例的用于使用基于样式的生成器系统100来施加空间噪声的方法250的流程图。方法250可以由程序,定制电路或定制电路和程序的组合来执行。例如,方法250可以由GPU(图形处理单元),CPU(中央处理单元)或能够执行基于样式的生成器系统100的操作的任何处理器来执行。另外,本领域技术人员将理解,执行方法250的任何系统都在本发明实施例的范围和精神内。
在步骤255处,在合成神经网络140的第一层应用第一组空间噪声,以生成第一中间数据,该第一中间数据包括与基于第一组空间噪声修改的源数据相对应的内容。在一个实施例中,源数据是第一中间数据,并且第一层是包括模块220和/或卷积层225的层。在步骤258,修改的第一中间数据被一个或更多个处理层225处理以产生第二中间数据。在步骤260,在合成神经网络140的第二层上施加第二组空间噪声,以生成第二中间数据,该第二中间数据包括与基于第二组空间噪声修改的第一中间数据相对应的内容。在一个实施例中,至少由模块220修改第一中间数据以产生第二中间数据。在步骤265,第二中间数据被处理以产生包括与第二中间数据相对应的内容的输出数据。在一个实施例中,第二中间数据由另一个模块220和块230处理以产生输出数据。
可以将噪声注入到合成神经网络140的各层中,以引起与该层相对应的缩放的随机变化的合成。重要的是,应该在训练和生成过程二者中注入噪声。另外,在生成期间,可以修改噪声的强度以进一步控制输出数据的“外观”。提供样式信号,而不是直接将潜码输入到合成神经网络140中,再结合直接注入到合成神经网络140中的噪声,导致在生成的图像中自动,无监督地从随机变化(例如雀斑,头发)中分离出高级属性(例如姿势,身份),并实现直觉式的缩放特定混合和插值操作。
特别地,样式信号在合成神经网络140中以不同的缩放直接调整图像属性的强度。在生成期间,样式信号可用于修改所选的图像属性。另外,在训练期间,映射神经网络110可以被配置为执行样式混合正则化以改善样式的本地化。
映射神经网络110将输入的潜码嵌入到中间的潜在空间中,这对如何在合成神经网络140中表示的变化因子具有深远的影响。输入的潜在空间遵循训练数据的概率密度,这可能导致一定程度的不可避免的纠缠。中间潜在空间不受该限制,因此被允许解缠结。与常规的生成器体系架构相比,基于样式的生成器系统100允许对变化的不同因素进行更线性、更少纠缠的表示。在一个实施例中,用基于样式的生成器替换常规生成器可能不需要修改训练框架的任何其他组件(损失函数,鉴别器,优化方法等)。
基于样式的生成神经网络100可以使用例如GAN(生成对抗网络),VAE(可变自动编码器)框架,基于流的框架等进行训练。图2D示出了根据一个实施例的GAN 270训练框架的框图。GAN 270可以由程序、定制电路或定制电路和程序的组合来实现。例如,可以使用GPU、CPU或能够执行本文描述的操作的任何处理器来实现GAN 270。此外,本领域普通技术人员将理解,执行GAN 270的操作的任何系统都在本发明的实施例的范围和精神内。
GAN 270包括生成器,例如基于样式的生成器系统100,鉴别器(神经网络)275和训练损失单元280。生成器110和鉴别器275二者的拓扑可以在训练期间进行修改。GAN 270可以在无监督的设置或有条件的设置下运行。基于样式的生成器系统100接收输入数据(例如,至少一个潜码和/或噪声输入)并产生输出数据。根据任务,输出数据可以是图像,音频,视频或其他类型的数据(例如,配置设置)。鉴别器275是自适应损失函数,其在基于样式的生成器系统100的训练期间使用。基于样式的生成器系统100和鉴别器275使用训练数据集同时训练,该训练数据集包括示例输出数据,由基于样式的生成器系统100生成的输出数据应与示例输出数据一致。基于样式的生成器系统100响应于输入数据生成输出数据,并且鉴别器275确定输出数据是否看起来类似于训练数据中包括的示例输出数据。基于该确定,调整鉴别器275和/或基于样式的生成神经网络100的参数。
在无监督设置中,鉴别器275输出一个连续值,该连续值指示输出数据与示例输出数据的匹配程度。例如,在一个实施例中,鉴别器275在确定输出数据匹配示例输出数据时输出第一训练刺激(例如,高值),并且在确定输出数据与示例输出数据不匹配时输出第二训练刺激(例如,低值)。训练损失单元280基于鉴别器275的输出来调整GAN 270的参数(权重)。当针对特定任务训练基于样式的生成器系统100(例如生成人脸的图像)时,当输出数据是人面部图像时,鉴别器输出高值。由基于样式的生成器系统100生成的输出数据不需要与示例输出数据相同,以用于鉴别器275确定输出数据与示例输出数据匹配。在以下描述的上下文中,当输出数据在感觉上类似于任何示例输出数据时,鉴别器275确定输出数据与示例输出数据匹配。
在条件设置中,基于样式的生成神经网络100的输入可以包括其他数据,例如图像,分类标签,分割轮廓和其他(附加)类型的数据(分布,音频等)。除了随机潜码之外,还可以指定附加数据,或者附加数据可以完全代替随机潜码。训练数据集可以包括输入/输出数据对,并且鉴别器275的任务可以是基于鉴别器275在训练数据中看到的示例输入/输出对确定基于样式的生成神经网络100的输出是否与输入一致。
在一个实施例中,可以使用渐进式增长技术来训练基于样式的生成神经网络100。在一个实施例中,映射神经网络110和/或合成神经网络140最初被实现为GAN的生成神经网络部分,并使用渐进式增长技术进行训练,如Karras等人所著,“GAN的渐进式增长以提高质量,稳定性和变异性(Progressive Growing of GANs for Improved Quality,Stability,and Variation)”,第六届国际学习表示会议(ICLR),(2018年4月30日),通过引用整体并入本文。
并行处理架构
图3示出了根据一个实施例的并行处理单元(PPU)300。在一个实施例中,PPU 300是在一个或更多个集成电路器件上实现的多线程处理器。PPU 300是设计用于并行处理许多线程的延迟隐藏体系架构。线程(即,执行线程)是被配置为由PPU 300执行的指令集的实例。在一个实施例中,PPU 300是图形处理单元(GPU),其被配置为实现用于处理三维(3D)图形数据的图形渲染管线,以便生成用于在显示装置(诸如液晶显示(LCD)设备)上显示的二维(2D)图像数据。在另一个实施例中,PPU 300被配置为实现神经网络系统100。在其他实施例中,PPU 300可以用于执行通用计算。尽管为了说明的目的本文提供了一个示例性并行处理器,但应特别指出的是,该处理器仅出于说明目的进行阐述,并且可使用任何处理器来补充和/或替代该处理器。
一个或更多个PPU 300可以被配置为加速数千个高性能计算(HPC)、数据中心,云计算和机器学习应用。PPU 300可被配置为加速众多深度学习系统和应用,用于自动驾驶汽车、模拟、射线或路径追踪等计算图形、深度学习、高精度语音、图像和文本识别系统、智能视频分析、分子模拟、药物研发、疾病诊断、天气预报、大数据分析、天文学、分子动力学模拟、金融建模、机器人技术、工厂自动化、实时语言翻译、在线搜索优化和个性化用户推荐,等等。
如图3所示,PPU 300包括输入/输出(I/O)单元305、前端单元315、调度器单元320、工作分配单元325、集线器330、交叉开关(Xbar)370、一个或更多个通用处理集群(GPC)350以及一个或更多个存储器分区单元380。PPU 300可以经由一个或更多个高速NVLink 310互连连接到主机处理器或其他PPU 300。PPU 300可以经由互连302连接到主机处理器或其他外围设备。PPU 300还可以连接到包括多个存储器设备的本地存储器304。在一个实施例中,本地存储器可以包括多个动态随机存取存储器(DRAM)设备。DRAM设备可以被配置为高带宽存储器(HBM)子系统,其中多个DRAM裸晶(die)堆叠在每个设备内。
NVLink 310互连使得系统能够扩展并且包括与一个或更多个CPU结合的一个或更多个PPU 300,支持PPU 300和CPU之间的高速缓存一致性,以及CPU主控。数据和/或命令可以由NVLink 310通过集线器330发送到PPU 300的其他单元或从其发送,例如一个或更多个复制引擎、视频编码器、视频解码器、电源管理单元等(未明确示出)。结合图5B更详细地描述NVLink 310。
I/O单元305被配置为通过互连302从主机处理器(未示出)发送和接收通信(例如,命令、数据等)。I/O单元305可以经由互连302直接与主机处理器通信,或通过一个或更多个中间设备(诸如内存桥)与主机处理器通信。在一个实施例中,I/O单元305可以经由互连302与一个或更多个其他处理器(例如,一个或更多个PPU 300)通信。在一个实施例中,I/O单元305实现外围组件互连高速(PCIe)接口,用于通过PCIe总线进行通信,并且互连302是PCIe总线。在替代的实施例中,I/O单元305可以实现其他类型的已知接口,用于与外部设备进行通信。
I/O单元305对经由互连302接收的数据包进行解码。在一个实施例中,数据包表示被配置为使PPU 300执行各种操作的命令。I/O单元305按照命令指定将解码的命令发送到PPU 300的各种其他单元。例如,一些命令可以被发送到前端单元315。其他命令可以被发送到集线器330或PPU 300的其他单元,诸如一个或更多个复制引擎、视频编码器、视频解码器、电源管理单元等(未明确示出)。换句话说,I/O单元305被配置为在PPU 300的各种逻辑单元之间和之中路由通信。
在一个实施例中,由主机处理器执行的程序在缓冲区中对命令流进行编码,该缓冲区向PPU 300提供工作量用于处理。工作量可以包括要由那些指令处理的许多指令和数据。缓冲区是存储器中可由主机处理器和PPU 300两者访问(例如,读/写)的区域。例如,I/O单元305可以被配置为经由通过互连302传输的存储器请求访问连接到互连302的系统存储器中的缓冲区。在一个实施例中,主机处理器将命令流写入缓冲区,然后向PPU 300发送指向命令流开始的指针。前端单元315接收指向一个或更多个命令流的指针。前端单元315管理一个或更多个流,从流读取命令并将命令转发到PPU 300的各个单元。
前端单元315耦合到调度器单元320,其配置各种GPC 350以处理由一个或更多个流定义的任务。调度器单元320被配置为跟踪与由调度器单元320管理的各种任务相关的状态信息。状态可以指示任务被指派给哪个GPC 350,该任务是活动的还是不活动的,与该任务相关联的优先级等等。调度器单元320管理一个或更多个GPC 350上的多个任务的执行。
调度器单元320耦合到工作分配单元325,其被配置为分派任务以在GPC 350上执行。工作分配单元325可以跟踪从调度器单元320接收到的若干调度的任务。在一个实施例中,工作分配单元325为每个GPC 350管理待处理(pending)任务池和活动任务池。待处理任务池可以包括若干时隙(例如,32个时隙),其包含被指派为由特定GPC 350处理的任务。活动任务池可以包括若干时隙(例如,4个时隙),用于正在由GPC350主动处理的任务。当GPC350完成任务的执行时,该任务从GPC 350的活动任务池中逐出,并且来自待处理任务池的其他任务之一被选择和调度以在GPC 350上执行。如果GPC 350上的活动任务已经空闲,例如在等待数据依赖性被解决时,那么活动任务可以从GPC 350中逐出并返回到待处理任务池,而待处理任务池中的另一个任务被选择并调度以在GPC 350上执行。
工作分配单元325经由XBar(交叉开关)370与一个或更多个GPC 350通信。XBar370是将PPU 300的许多单元耦合到PPU 300的其他单元的互连网络。例如,XBar 370可以被配置为将工作分配单元325耦合到特定的GPC 350。虽然没有明确示出,但PPU 300的一个或更多个其他单元也可以经由集线器330连接到XBar 370。
任务由调度器单元320管理并由工作分配单元325分派给GPC350。GPC 350被配置为处理任务并生成结果。结果可以由GPC 350内的其他任务消耗,经由XBar 370路由到不同的GPC 350,或者存储在存储器304中。结果可以经由存储器分区单元380写入存储器304,存储器分区单元380实现用于从存储器304读取数据和向存储器304写入数据的存储器接口。结果可以通过NVLink310发送到另一个PPU 304或CPU。在一个实施例中,PPU 300包括数目为U的存储器分区单元380,其等于耦合到PPU 300的独立且不同的存储器设备304的数目。下面将结合图4B更详细地描述存储器分区单元380。
在一个实施例中,主机处理器执行实现应用程序编程接口(API)的驱动程序内核,其使得能够在主机处理器上执行一个或更多个应用程序以调度操作用于在PPU 300上执行。在一个实施例中,多个计算应用由PPU 300同时执行,并且PPU 300为多个计算应用程序提供隔离、服务质量(QoS)和独立地址空间。应用程序可以生成指令(例如,API调用),其使得驱动程序内核生成一个或更多个任务以由PPU 300执行。驱动程序内核将任务输出到正在由PPU 300处理的一个或更多个流。每个任务可以包括一个或更多个相关线程组,本文称为线程束(warp)。在一个实施例中,线程束包括可以并行执行的32个相关线程。协作线程可以指代包括执行任务的指令并且可以通过共享存储器交换数据的多个线程。结合图5A更详细地描述线程和协作线程。
图4A示出了根据一个实施例的图3的PPU 300的GPC 350。如图4A所示,每个GPC350包括用于处理任务的多个硬件单元。在一个实施例中,每个GPC 350包括管线管理器410、预光栅操作单元(PROP)
415、光栅引擎425、工作分配交叉开关(WDX)480、存储器管理单元(MMU)490以及一个或更多个数据处理集群(DPC)420。应当理解,图4A的GPC 350可以包括代替图4A中所示单元的其他硬件单元或除图4A中所示单元之外的其他硬件单元。
在一个实施例中,GPC 350的操作由管线管理器410控制。管线管理器410管理用于处理分配给GPC 350的任务的一个或更多个DPC 420的配置。在一个实施例中,管线管理器410可以配置一个或更多个DPC 420中的至少一个来实现图形渲染管线的至少一部分。例如,DPC 420可以被配置为在可编程流式多处理器(SM)440上执行顶点着色程序。管线管理器410还可以被配置为将从工作分配单元325接收的数据包路由到GPC 350中适当的逻辑单元。例如,一些数据包可以被路由到PROP 415和/或光栅引擎425中的固定功能硬件单元,而其他数据包可以被路由到DPC 420以供图元引擎435或SM 440处理。在一个实施例中,管线管理器410可以配置一个或更多个DPC 420中的至少一个以实现神经网络模型和/或计算管线。
PROP单元415被配置为将由光栅引擎425和DPC 420生成的数据路由到光栅操作(ROP)单元,结合图4B更详细地描述。PROP单元415还可以被配置为执行颜色混合的优化,组织像素数据,执行地址转换等。
光栅引擎425包括被配置为执行各种光栅操作的若干固定功能硬件单元。在一个实施例中,光栅引擎425包括设置引擎、粗光栅引擎、剔除引擎、裁剪引擎、精细光栅引擎和图块聚合引擎。设置引擎接收变换后的顶点并生成与由顶点定义的几何图元关联的平面方程。平面方程被发送到粗光栅引擎以生成图元的覆盖信息(例如,图块的x、y覆盖掩码)。粗光栅引擎的输出被发送到剔除引擎,其中与未通过z-测试的图元相关联的片段被剔除,发送到裁剪引擎,其中位于视锥体之外的片段被裁剪掉。那些经过裁剪和剔除后留下来的片段可以被传递到精细光栅引擎,以基于由设置引擎生成的平面方程生成像素片段的属性。光栅引擎425的输出包括例如要由在DPC 420内实现的片段着色器处理的片段。
包括在GPC 350中的每个DPC 420包括M管线控制器(MPC)430、图元引擎435和一个或更多个SM 440。MPC 430控制DPC 420的操作,将从管线管理器410接收到的数据包路由到DPC 420中的适当单元。例如,与顶点相关联的数据包可以被路由到图元引擎435,图元引擎435被配置为从存储器304提取与顶点相关联的顶点属性。相反,与着色程序相关联的数据包可以被发送到SM 440。
SM 440包括被配置为处理由多个线程表示的任务的可编程流式处理器。每个SM440是多线程的并且被配置为同时执行来自特定线程组的多个线程(例如,32个线程)。在一个实施例中,SM 440实现SIMD(单指令、多数据)体系架构,其中线程组(例如,warp)中的每个线程被配置为基于相同的指令集来处理不同的数据集。线程组中的所有线程都执行相同的指令。在另一个实施例中,SM 440实现SIMT(单指令、多线程)体系架构,其中线程组中的每个线程被配置为基于相同的指令集处理不同的数据集,但是其中线程组中的各个线程在执行期间被允许发散。在一个实施例中,为每个线程束维护程序计数器、调用栈和执行状态,当线程束内的线程发散时,使线程束和线程束中的串行执行之间的并发成为可能。在另一个实施例中,为每个单独的线程维护程序计数器、调用栈和执行状态,从而在线程束内和线程束之间的所有线程之间实现相等的并发。当为每个单独的线程维护执行状态时,执行相同指令的线程可以被收敛并且并行执行以获得最大效率。下面结合图5A更详细地描述SM440。
MMU 490提供GPC 350和存储器分区单元380之间的接口。MMU 490可以提供虚拟地址到物理地址的转换、存储器保护以及存储器请求的仲裁。在一个实施例中,MMU 490提供用于执行从虚拟地址到存储器304中的物理地址的转换的一个或更多个转换后备缓冲器(TLB)。
图4B示出了根据一个实施例的图3的PPU 300的存储器分区单元380。如图4B所示,存储器分区单元380包括光栅操作(ROP)单元450、二级(L2)高速缓存460和存储器接口470。存储器接口470耦合到存储器304。存储器接口470可以实现用于高速数据传输的32、64、128、1024位数据总线等。在一个实施例中,PPU 300合并了U个存储器接口470,每对存储器分区单元380有一个存储器接口470,其中每对存储器分区单元380连接到对应的存储器设备304。例如,PPU 300可以连接到多达Y个存储器设备,诸如高带宽存储器堆叠或图形双数据速率版本5的同步动态随机存取存储器或其他类型的持久存储器。
在一个实施例中,存储器接口470实现HBM2存储器接口,并且Y等于U的一半。在一个实施例中,HBM2存储器堆叠位于与PPU 300相同的物理封装上,提供与常规GDDR5 SDRAM系统相比显著的功率高和面积节约。在一个实施例中,每个HBM2堆叠包括四个存储器裸晶并且Y等于4,其中HBM2堆叠包括每个裸晶两个128位通道,总共8个通道和1024位的数据总线宽度。
在一个实施例中,存储器304支持单错校正双错检测(SECDED)纠错码(ECC)以保护数据。对于对数据损毁敏感的计算应用程序,ECC提供了更高的可靠性。在大型集群计算环境中,PPU 300处理非常大的数据集和/或长时间运行应用程序,可靠性尤其重要。
在一个实施例中,PPU 300实现多级存储器层次。在一个实施例中,存储器分区单元380支持统一存储器以为CPU和PPU 300存储器提供单个统一的虚拟地址空间,使得虚拟存储器系统之间的数据能够共享。在一个实施例中,跟踪PPU 300对位于其他处理器上的存储器的访问频率,以确保存储器页面被移动到更频繁地访问该页面的PPU 300的物理存储器。在一个实施例中,NVLink 310支持地址转换服务,其允许PPU 300直接访问CPU的页表并且提供由PPU 300对CPU存储器的完全访问。
在一个实施例中,复制引擎在多个PPU 300之间或在PPU 300与CPU之间传输数据。复制引擎可以为未映射到页表的地址生成页面错误。然后,存储器分区单元380可以服务页面错误,将地址映射到页表中,之后复制引擎可以执行传输。在常规系统中,针对多个处理器之间的多个复制引擎操作固定存储器(例如,不可分页),其显著减少了可用存储器。由于硬件分页错误,地址可以传递到复制引擎而不用担心存储器页面是否驻留,并且复制过程是否透明。
来自存储器304或其他系统存储器的数据可以由存储器分区单元380取回并存储在L2高速缓存460中,L2高速缓存460位于芯片上并且在各个GPC 350之间共享。如图所示,每个存储器分区单元380包括与对应的存储器304相关联的L2高速缓存460的一部分。然后可以在GPC350内的多个单元中实现较低级高速缓存。例如,每个SM 440可以实现一级(L1)高速缓存。L1高速缓存是专用于特定SM 440的专用存储器。来自L2高速缓存460的数据可以被获取并存储在每个L1高速缓存中,以在SM 440的功能单元中进行处理。L2高速缓存460被耦合到存储器接口470和XBar 370。
ROP单元450执行与诸如颜色压缩、像素混合等像素颜色相关的图形光栅操作。ROP单元450还与光栅引擎425一起实现深度测试,从光栅引擎425的剔除引擎接收与像素片段相关联的样本位置的深度。测试与片段关联的样本位置相对于深度缓冲区中的对应深度的深度。如果片段通过样本位置的深度测试,则ROP单元450更新深度缓冲区并将深度测试的结果发送给光栅引擎425。将理解的是,存储器分区单元380的数量可以不同于GPC 350的数量,并且因此每个ROP单元450可以耦合到每个GPC 350。ROP单元450跟踪从不同GPC 350接收到的数据包并且确定由ROP单元450生成的结果通过Xbar 370被路由到哪个GPC 350。尽管在图4B中ROP单元450被包括在存储器分区单元380内,但是在其他实施例中,ROP单元450可以在存储器分区单元380之外。例如,ROP单元450可以驻留在GPC 350或另一个单元中。
图5A示出了根据一个实施例的图4A的流式多处理器440。如图5A所示,SM 440包括指令高速缓存505、一个或更多个调度器单元510、寄存器文件520、一个或更多个处理核心550、一个或更多个特殊功能单元(SFU)552、一个或更多个加载/存储单元(LSU)554、互连网络580、共享存储器/L1高速缓存570。
如上所述,工作分配单元325调度任务以在PPU 300的GPC 350上执行。任务被分配给GPC 350内的特定DPC 420,并且如果该任务与着色器程序相关联,则该任务可以被分配给SM 440。调度器单元510接收来自工作分配单元325的任务并且管理指派给SM 440的一个或更多个线程块的指令调度。调度器单元510调度线程块以作为并行线程的线程束执行,其中每个线程块被分配至少一个线程束。在一个实施例中,每个线程束执行32个线程。调度器单元510可以管理多个不同的线程块,将线程束分配给不同的线程块,然后在每个时钟周期期间将来自多个不同的协作组的指令分派到各个功能单元(即,核心550、SFU 552和LSU554)。
协作组是用于组织通信线程组的编程模型,其允许开发者表达线程正在进行通信所采用的粒度,使得能够表达更丰富、更高效的并行分解。协作启动API支持线程块之间的同步性,以执行并行算法。常规的编程模型为同步协作线程提供了单一的简单结构:跨线程块的所有线程的栅栏(barrier)(例如,syncthreads()函数)。然而,程序员通常希望以小于线程块粒度的粒度定义线程组,并在所定义的组内同步,以集体的全组功能接口(collective group-wide function interface)的形式使能更高的性能、设计灵活性和软件重用。
协作组使得程序员能够在子块(例如,像单个线程一样小)和多块粒度处明确定义线程组并且执行集体操作,诸如协作组中的线程上的同步性。编程模型支持跨软件边界的干净组合,以便库和效用函数可以在他们本地环境中安全地同步,而无需对收敛进行假设。协作组图元启用合作并行的新模式,包括生产者-消费者并行、机会主义并行以及跨整个线程块网格的全局同步。
分派单元515被配置为向一个或更多个功能单元传送指令。在该实施例中,调度器单元510包括两个分派单元515,其使得能够在每个时钟周期期间调度来自相同线程束的两个不同指令。在替代实施例中,每个调度器单元510可以包括单个分派单元515或附加分派单元515。
每个SM 440包括寄存器文件520,其提供用于SM 440的功能单元的一组寄存器。在一个实施例中,寄存器文件520在每个功能单元之间被划分,使得每个功能单元被分配寄存器文件520的专用部分。在另一个实施例中,寄存器文件520在由SM 440执行的不同线程束之间被划分。寄存器文件520为连接到功能单元的数据路径的操作数提供临时存储器。
每个SM 440包括L个处理核心550。在一个实施例中,SM 440包括大量(例如128个等)不同的处理核心550。每个核心550可以包括完全管线化的、单精度、双精度和/或混合精度处理单元,其包括浮点运算逻辑单元和整数运算逻辑单元。在一个实施例中,浮点运算逻辑单元实现用于浮点运算的IEEE 754-2008标准。在一个实施例中,核心550包括64个单精度(32位)浮点核心、64个整数核心、32个双精度(64位)浮点核心和8个张量核心(tensorcore)。
张量核心被配置为执行矩阵运算,并且在一个实施例中,一个或更多个张量核心被包括在核心550中。具体地,张量核心被配置为执行深度学习矩阵运算,诸如用于神经网络训练和推理的卷积运算。在一个实施例中,每个张量核心在4×4矩阵上运算并且执行矩阵乘法和累加运算D=A×B+C,其中A、B、C和D是4×4矩阵。
在一个实施例中,矩阵乘法输入A和B是16位浮点矩阵,而累加矩阵C和D可以是16位浮点或32位浮点矩阵。张量核心在16位浮点输入数据以及32位浮点累加上运算。16位浮点乘法需要64次运算,产生全精度的积,然后使用32位浮点与4×4×4矩阵乘法的其他中间积相加来累加。在实践中,张量核心用于执行由这些较小的元素建立的更大的二维或更高维的矩阵运算。API(诸如CUDA 9C++API)公开了专门的矩阵加载、矩阵乘法和累加以及矩阵存储运算,以便有效地使用来自CUDA-C++程序的张量核心。在CUDA层面,线程束级接口假定16×16尺寸矩阵跨越线程束的全部32个线程。
每个SM 440还包括执行特殊函数(例如,属性评估、倒数平方根等)的M个SFU 552。在一个实施例中,SFU 552可以包括树遍历单元,其被配置为遍历分层树数据结构。在一个实施例中,SFU 552可以包括被配置为执行纹理图过滤操作的纹理单元。在一个实施例中,纹理单元被配置为从存储器304加载纹理图(例如,纹理像素的2D阵列)并且对纹理图进行采样以产生经采样的纹理值,用于在由SM 440执行的着色器程序中使用。在一个实施例中,纹理图被存储在共享存储器/L1高速缓存470中。纹理单元实现纹理操作,诸如使用mip图(即,不同细节层次的纹理图)的过滤操作。在一个实施例中,每个SM 440包括两个纹理单元。
每个SM 440还包括N个LSU 554,其实现共享存储器/L1高速缓存570和寄存器文件520之间的加载和存储操作。每个SM 440包括将每个功能单元连接到寄存器文件520以及将LSU 554连接到寄存器文件520、共享存储器/L1高速缓存570的互连网络580。在一个实施例中,互连网络580是交叉开关,其可以被配置为将任何功能单元连接到寄存器文件520中的任何寄存器,以及将LSU 554连接到寄存器文件和共享存储器/L1高速缓存570中的存储器位置。
共享存储器/L1高速缓存570是片上存储器阵列,其允许数据存储和SM 440与图元引擎435之间以及SM 440中的线程之间的通信。在一个实施例中,共享存储器/L1高速缓存570包括128KB的存储容量并且在从SM 440到存储器分区单元380的路径中。共享存储器/L1高速缓存570可以用于高速缓存读取和写入。共享存储器/L1高速缓存570、L2高速缓存460和存储器304中的一个或更多个是后备存储。
将数据高速缓存和共享存储器功能组合成单个存储器块为两种类型的存储器访问提供最佳的总体性能。该容量可由程序用作不使用共享存储器的高速缓存。例如,如果将共享存储器配置为使用一半容量,则纹理和加载/存储操作可以使用剩余容量。在共享存储器/L1高速缓存570内的集成使共享存储器/L1高速缓存570起到用于流式传输数据的高吞吐量管线的作用,并且同时提供对频繁重用数据的高带宽和低延迟的访问。
当被配置用于通用并行计算时,与图形处理相比,可以使用更简单的配置。具体地,图3所示的固定功能图形处理单元被绕过,创建了更简单的编程模型。在通用并行计算配置中,工作分配单元325将线程块直接指派并分配给DPC 420。块中的线程执行相同的程序,使用计算中的唯一线程ID来确保每个线程生成唯一结果,使用SM 440执行程序并执行计算,使用共享存储器/L1高速缓存570以在线程之间通信,以及使用LSU 554通过共享存储器/L1高速缓存570和存储器分区单元380读取和写入全局存储器。当被配置用于通用并行计算时,SM 440还可以写入调度器单元320可用来在DPC 420上启动新工作的命令。
PPU 300可以被包括在台式计算机、膝上型计算机、平板电脑、服务器、超级计算机、智能电话(例如,无线、手持设备)、个人数字助理(PDA)、数码相机、运载工具、头戴式显示器、手持式电子设备等中。在一个实施例中,PPU 300包含在单个半导体衬底上。在另一个实施例中,PPU 300与一个或更多个其他器件(诸如附加PPU 300、存储器304、精简指令集计算机(RISC)CPU、存储器管理单元(MMU)、数字-模拟转换器(DAC)等)一起被包括在片上系统(SoC)上。
在一个实施例中,PPU 300可以被包括在图形卡上,图形卡包括一个或更多个存储器304。图形卡可以被配置为与台式计算机的主板上的PCIe插槽接口。在又一个实施例中,PPU 300可以是包含在主板的芯片集中的集成图形处理单元(iGPU)或并行处理器。
示例性计算系统
具有多个GPU和CPU的系统被用于各种行业,因为开发者在应用(诸如人工智能计算)中暴露和利用更多的并行性。在数据中心、研究机构和超级计算机中部署具有数十至数千个计算节点的高性能GPU加速系统,以解决更大的问题。随着高性能系统内处理设备数量的增加,通信和数据传输机制需要扩展以支持该增加带宽。
图5B是根据实施例的使用图3的PPU 300实现的处理系统500的概念图。可以将示例性系统565配置为分别实现图1C,2C,6C和6D中所示的方法150、250、650和675中的一个或更多个。处理系统500包括CPU530,交换机510和多个PPU 300,和各个存储器304。PPU 330可各自包括和/或被配置为执行一个或更多个处理核心和/或其组件,例如张量核(TC),张量处理单元(TPU),像素视觉核心(PVC),视觉处理单元(VPU),图形处理集群(GPC),纹理处理集群(TPC),流式多处理器(SM),树遍历单元(TTU),人工智能加速器(AIA),深度学习加速器(DLA),算术逻辑单元(ALU),专用集成电路(ASIC),浮点单元(FPU),输入/输出(I/O)元素,外围组件互连(PCI)或外围组件互连快速(PCIe)元件等等。
NVLink 310提供每个PPU 300之间的高速通信链路。尽管图5B中示出了特定数量的NVLink 310和互连302连接,但是连接到每个PPU 300和CPU 530的连接的数量可以改变。交换机510在互连302和CPU 530之间接口。PPU 300、存储器304和NVLink 310可以位于单个半导体平台上以形成并行处理模块525。在一个实施例中,交换机510支持两个或更多个在各种不同连接和/或链路之间接口的协议。
在另一个实施例(未示出)中,NVLink 310在每个PPU 300和CPU 530之间提供一个或更多个高速通信链路,并且交换机510在互连302和每个PPU 300之间进行接口。PPU 300、存储器304和互连302可以位于单个半导体平台上以形成并行处理模块525。在又一个实施例(未示出)中,互连302在每个PPU 300和CPU 530之间提供一个或更多个通信链路,并且交换机510使用NVLink 310在每个PPU 300之间进行接口,以在PPU 300之间提供一个或更多个高速通信链路。在另一个实施例(未示出)中,NVLink 310在PPU300和CPU 530之间通过交换机510提供一个或更多个高速通信链路。在又一个实施例(未示出)中,互连302在每个PPU300之间直接地提供一个或更多个通信链路。可以使用与NVLink 310相同的协议将一个或更多个NVLink 310高速通信链路实现为物理NVLink互连或者片上或裸晶上互连。
在本说明书的上下文中,单个半导体平台可以指在裸晶或芯片上制造的唯一的单一的基于半导体的集成电路。应该注意的是,术语单个半导体平台也可以指具有增加的连接的多芯片模块,其模拟片上操作并通过利用常规总线实现方式进行实质性改进。当然,根据用户的需要,各种电路或器件还可以分开放置或以半导体平台的各种组合来放置。可选地,并行处理模块525可以被实现为电路板衬底,并且PPU 300和/或存储器304中的每一个可以是封装器件。在一个实施例中,CPU 530、交换机510和并行处理模块525位于单个半导体平台上。
在一个实施例中,每个NVLink 310的信令速率是20到25千兆位/秒,并且每个PPU300包括六个NVLink 310接口(如图5B所示,每个PPU 300包括五个NVLink 310接口)。每个NVLink 310在每个方向上提供25千兆位/秒的数据传输速率,其中六条链路提供300千兆位/秒。当CPU 530还包括一个或更多个NVLink 310接口时,NVLink 310可专门用于如图5B所示的PPU到PPU通信,或者PPU到PPU以及PPU到CPU的某种组合。
在一个实施例中,NVLink 310允许从CPU 530到每个PPU 300的存储器304的直接加载/存储/原子访问。在一个实施例中,NVLink 310支持一致性操作,允许从存储器304读取的数据被存储在CPU 530的高速缓存分层结构中,减少了CPU 530的高速缓存访问延迟。在一个实施例中,NVLink 310包括对地址转换服务(ATS)的支持,允许PPU 300直接访问CPU530内的页表。一个或更多个NVLink 310还可以被配置为以低功率模式操作。
图5C示出了示例性系统565,在其中可以实现各种先前实施例的各种体系结构和/或功能。示例性系统565可以被配置为分别实现图1C,2C,6C和6D中所示的方法150、250、650和675中的一个或更多个。
如图所示,提供了一种系统565,该系统565包括至少一个连接到通信总线575的中央处理单元530。通信总线575可以直接或间接耦合以下设备中的一个或更多个:主存储器540,网络接口535,一个或更多个CPU 530,一个或更多个显示设备545,一个或更多个输入设备560,交换机510和并行处理系统525。通信总线575可以使用任何合适的协议来实现,并且可以表示一个或更多个链接或总线,例如地址总线,数据总线,控制总线或其组合。通信总线575可以包括一种或更多种总线或链路类型,诸如工业标准架构(ISA)总线,扩展工业标准架构(EISA)总线,视频电子标准协会(VESA)总线,外围组件互连(PCI)总线,外围组件互连快速(PCIe)总线,超传输和/或另一种类型的总线或链路。在一些实施例中,组件之间存在直接连接。作为示例,一个或更多个CPU 530可以直接连接到主存储器540。此外,一个或更多个CPU 530可以直接连接到并行处理系统525。在直接或点对点的情况下在组件之间的连接中,通信总线575可以包括PCIe链接以执行连接。在这些示例中,PCI总线不需要被包括在系统565中。
尽管图5C的各个框被示为经由通信总线575用线连接,但这并不旨在进行限制并且仅是为了清楚。例如,在一些实施例中,呈现组件,例如一个或更多个显示设备545,可以被认为是I/O组件,例如一个或更多个输入设备560(例如,如果显示器是触摸屏)。作为另一个示例,一个或更多个CPU 530和/或并行处理系统525可以包括存储器(例如,除了并行处理系统525,CPU 530和/或其他组件之外,主存储器540可以表示存储设备)。换句话说,图5C的计算设备仅是说明性的。在“工作站”,“服务器”,“笔记本电脑”,“台式机”,“平板电脑”,“客户端设备”,“移动设备”,“手持设备”,“游戏机”,“电子控制单元(ECU)”,“虚拟现实系统”和/或其他设备或系统类型等类别之间未进行区分,均在图5C的计算设备的范围内。
系统565还包括主存储器540。控制逻辑(软件)和数据被存储在主存储器540中,其可以采取各种计算机可读介质的形式。计算机可读介质可以是系统565可以访问的任何可用介质。计算机可读介质可以包括易失性和非易失性介质以及可移除和不可移除介质。作为示例而非限制,计算机可读介质可以包括计算机存储介质和通信介质。
计算机存储介质可以包括以用于存储信息(诸如计算机可读指令,数据结构,程序模块和/或其他数据类型)的任何方法或技术实现的易失性和非易失性介质和/或可移除和不可移除介质两者。例如,主存储器540可以存储计算机可读指令(例如,表示诸如操作系统的程序和/或程序元素),计算机存储介质可以包括但不限于到RAM,ROM,EEPROM,闪存或其他存储技术,CD-ROM,数字多功能磁盘(DVD)或其他光盘存储设备,磁带盒,磁带,磁盘存储设备或其他磁性存储设备或可以用于存储期望信息并且可以由系统565访问的任何其他介质。如本文所使用的,计算机存储介质本身不包括信号。
计算机存储介质可以在诸如载波或其他传输机制的已调制数据信号中体现计算机可读指令,数据结构,程序模块和/或其他数据类型,并且包括任何信息传递介质。术语“调制数据信号”可以指的是具有以其将信息编码的方式设置或改变其一个或更多个特征的信号。作为示例而非限制,计算机存储介质可以包括有线介质(诸如有线网络或直接有线连接),以及无线介质(诸如声学,RF,红外和其他无线介质)。以上任何内容的组合也应包括在计算机可读介质的范围内。
计算机程序在被执行时使系统565能够执行各种功能。一个或更多个CPU 530可以被配置为执行计算机可读指令中的至少一些,以控制系统565的一个或更多个组件以执行本文描述的方法和/或过程中的一个或更多个。一个或更多个CPU 530的每个可以包括一个或更多个能够同时处理多个软件线程的核心(例如,一个,两个,四个,八个,二十八个,七十二个等等)。一个或更多个CPU 530可以包括任何类型的处理器,并且可以取决于所实现的系统565的类型而包括不同类型的处理器(例如,具有较少核心的用于移动设备的处理器和具有较多核心的用于服务器的处理器)。例如,取决于系统565的类型,处理器可以是使用精简指令集计算(RISC)实现的高级RISC机器(ARM)处理器或使用复杂指令集计算(CISC)实现的x86处理器。除了一个或更多个微处理器或辅助协处理器,例如数学协处理器,系统565还可包括一个或更多个CPU530。
作为一个或更多个CPU 530的补充或替代,并行处理模块525可配置为执行至少一些计算机可读指令,以控制系统565的一个或更多个组件执行本文描述的一个或更多个方法和/或过程。系统565可以使用并行处理模块525来渲染图形(例如3D图形)或执行通用计算。例如,并行处理模块525可以用于GPU上的通用计算(GPGPU)。在实施例中,一个或更多个CPU 530和/或并行处理模块525可以离散地或联合地执行方法,过程和/或其部分的任何组合。
系统565还包括一个或更多个输入设备560,并行处理系统525和一个或更多个显示设备545。一个或更多个显示设备545可包括显示器(例如,监视器,触摸屏,电视屏幕,平视显示器(HUD),其他显示类型或其组合),扬声器和/或其他演示组件。一个或更多个显示设备545可以从其他组件(例如,并行处理系统525,CPU 530等)接收数据,并且输出数据(例如,作为图像,视频,声音等)。
网络接口535可以使系统565逻辑耦合到其他设备,包括输入设备560,一个或更多个显示设备545和/或其他组件,其中一些可以内置于(例如,集成到)系统565。说明性输入设备560包括麦克风,鼠标,键盘,操纵杆,游戏手柄,游戏控制器,碟形卫星天线,扫描仪,打印机,无线设备等。输入设备560可提供自然的用户界面(NUI)处理手势,语音或用户生成的其他生理输入。在某些情况下,可以将输入传输到适当的网络元素以进行进一步处理。NUI可以实现语音识别,手写笔识别,面部识别,生物特征识别,屏幕上以及与屏幕相邻的手势识别,空中手势,头部和眼睛跟踪以及与系统565的显示器相关的触摸识别(如下更详细描述)的任意组合。系统565可以包括用于姿势检测和识别的深度相机,例如立体相机系统,红外相机系统,RGB相机系统,触摸屏技术及其组合。另外,系统565可包括使得能够检测运动的输入设备560,诸如加速度计或陀螺仪(例如,作为惯性测量单元(IMU)的一部分)。在一些示例中,系统565可以使用加速度计或陀螺仪的输出来渲染身临其境的增强现实或虚拟现实。
此外,系统565可以通过网络接口535耦合到网络(例如,电信网络,局域网(LAN),无线网络,诸如互联网的广域网(WAN),对等网络,电缆通过网络接口535)进行通信。系统565可以被包括在分布式网络和/或云计算环境内。
网络接口535可以包括一个或更多个接收机,发射机和/或收发机,其使系统565能够经由包括有线和/或无线通信的电子通信网络与其他计算设备进行通信。网络接口535可以包括组件和功能,以使得能够在许多不同网络中的任何一个上进行通信,例如无线网络(例如,Wi-Fi,Z-Wave,蓝牙,蓝牙LE,ZigBee等),有线网络(例如,通过以太网或InfiniBand进行通信),低功耗广域网(例如LoRaWAN,SigFox等)和/或因特网。
系统565还可包括辅助存储器(未示出)。辅助存储设备610包括,例如,硬盘驱动器和/或可移除存储驱动器,表示软盘驱动器,磁带驱动器,光盘驱动器,数字多功能磁盘(DVD)驱动器,记录设备,通用串行总线(USB)闪存。可移除存储驱动器以众所周知的方式从可移除存储单元读取和/或写入可移除存储单元。系统565还可包括硬线电源,电池电源或其组合(未示出)。电源可以向系统565提供电力以使系统565的组件能够操作。
前述模块和/或设备中的每一个甚至可以被放置在单个半导体平台上以形成系统565。或者,根据用户的需求,各种模块也可以被独立地放置或以半导体平台的各种组合放置。尽管上面已经描述了各种实施例,但是应该理解,它们仅是示例性的,而非限制性的。因此,优选实施例的广度和范围不应由任何上述示例性实施例限制,而应仅根据所附权利要求及其等同物来限定。
示例网络环境
适用于实现本公开的实施例的网络环境可以包括一个或更多个客户端设备,服务器,网络附加存储(NAS),其他后端设备和/或其他设备类型。客户端设备,服务器和/或其他设备类型(例如,每个设备)可以在图5B的处理系统500和/或图5C的示例性系统565的一个或更多个实例上实现,例如,每个设备可以包括类似的组件,处理系统500和/或示例性系统565的特征和/或功能。
网络环境的组件可以经由可以是有线,无线或两者的一个或更多个网络相互通信。该网络可以包括多个网络或网络的网络。举例来说,网络可以包括一个或更多个WAN,一个或更多个LAN,一个或更多个公共网络,例如互联网和/或公共交换电话网络(PSTN),和/或一个或更多个专用网络。在网络包括无线电信网络的情况下,诸如基站,通信塔,甚至接入点之类的组件(以及其他组件)可以提供无线连接。
兼容的网络环境可以包括一个或更多个对等网络环境-在这种情况下,服务器可能不包含在网络环境中-以及一个或更多个客户端-服务器网络环境-在这种情况下,一个或更多个服务器可能包含在网络环境中。在对等网络环境中,本文针对一个或更多个服务器描述的功能可以在任意数量的客户端设备上实现。
在至少一个实施例中,网络环境可以包括一个或更多个基于云的网络环境,分布式计算环境,其组合等。基于云的网络环境可以包括框架层,作业调度器,资源管理器以及在一个或更多个服务器上实现的分布式文件系统,该服务器可以包括一个或更多个核心网络服务器和/或边缘服务器。框架层可以包括用于支持软件层的软件和/或应用程序层的一个或更多个应用程序的框架。该软件或一个或更多个应用程序可以分别包括基于网络的服务软件或应用程序。在实施例中,一个或更多个客户端设备可以使用基于网络的服务软件或应用程序(例如,通过经由一个或更多个应用程序编程接口(API)访问服务软件和/或应用程序)。框架层可以是但不限于一种自由和开源软件网页应用程序框架,例如可以使用分布式文件系统进行大规模数据处理(例如“大数据”)。
基于云的网络环境可以提供执行本文所述的计算和/或数据存储功能的任何组合(或其一个或更多个部分)的云计算和/或云存储。这些各种功能中的任何一个都可以从中央或核心服务器(例如,可以跨州,地区,国家,全球等分布的一个或更多个数据中心的)分布在多个位置。如果到用户(例如,客户端设备)的连接相对靠近一个或更多个边缘服务器,则一个或更多个核心服务器可以向一个或更多个边缘服务器指定功能的至少一部分。基于云的网络环境可以是私有的(例如,限于单个组织),可以是公共的(例如,可供许多组织使用)和/或其组合(例如,混合云环境)。
一个或更多个客户端设备可以包括图5B的示例处理系统500和/或图5C的示例性系统565的至少一些组件,特征和功能。作为示例而非限制,客户端设备可以体现为个人计算机(PC),膝上型计算机,移动设备,智能手机,平板计算机,智能手表,可穿戴计算机,个人数字助理(PDA),MP3播放器,虚拟现实耳机,全球定位系统(GPS)或设备,视频播放器,摄像机,监视设备或系统,车辆,船只,飞船,虚拟机,无人机,机器人,手持通信设备,医院设备,游戏设备或系统,娱乐系统,车辆计算机系统,嵌入式系统控制器,遥控器,设备,消费电子设备,工作站,边缘设备,这些描绘的设备的任何组合或任何其他合适的设备。
机器学习
在处理器(诸如PPU 300)上开发的深度神经网络(DNN)已经用于各种使用情况:从自驾车到更快药物开发,从在线图像数据库中的自动图像字幕到视频聊天应用中的智能实时语言翻译。深度学习是一种技术,它建模人类大脑的神经学习过程,不断学习,不断变得更聪明,并且随着时间的推移更快地传送更准确的结果。一个孩子最初是由成人教导,以正确识别和分类各种形状,最终能够在没有任何辅导的情况下识别形状。同样,深度学习或神经学习系统需要在对象识别和分类方面进行训练,以便在识别基本对象、遮挡对象等同时还有为对象分配情景时变得更加智能和高效。
在最简单的层面上,人类大脑中的神经元查看接收到的各种输入,将重要性水平分配给这些输入中的每一个,并且将输出传递给其他神经元以进行处理。人造神经元或感知器是神经网络的最基本模型。在一个示例中,感知器可以接收一个或更多个输入,其表示感知器正被训练为识别和分类的对象的各种特征,并且在定义对象形状时,这些特征中的每一个基于该特征的重要性指派一定的权重。
深度神经网络(DNN)模型包括许多连接节点(例如,感知器、玻尔兹曼机器、径向基函数、卷积层等)的多个层,其可以用大量输入数据来训练以快速高精度地解决复杂问题。在一个示例中,DNN模型的第一层将汽车的输入图像分解为各个部分,并查找基本图案(诸如线条和角)。第二层组装线条以寻找更高水平的图案,诸如轮子、挡风玻璃和镜子。下一层识别运载工具类型,最后几层为输入图像生成标签,识别特定汽车品牌的型号。
一旦DNN被训练,DNN就可以被部署并用于在被称为推理(inference)的过程中识别和分类对象或图案。推理的示例(DNN从给定输入中提取有用信息的过程)包括识别储蓄在ATM机中的支票存款上的手写数字、识别照片中朋友的图像、向超过五千万用户提供电影推荐、识别和分类不同类型的汽车、行人和无人驾驶汽车中的道路危险、或实时翻译人类言语。
在训练期间,数据在前向传播阶段流过DNN,直到产生预测为止,其指示对应于输入的标签。如果神经网络没有正确标记输入,则分析正确标签和预测标签之间的误差,并且在后向传播阶段期间针对每个特征调整权重,直到DNN正确标记该输入和训练数据集中的其他输入为止。训练复杂的神经网络需要大量的并行计算性能,包括由PPU 300支持的浮点乘法和加法。与训练相比,推理的计算密集程度比训练更低,是一个延迟敏感过程,其中经训练的神经网络应用于它以前没有见过的新的输入,以进行图像分类、翻译语音以及通常推理新的信息。
神经网络严重依赖于矩阵数学运算,并且复杂的多层网络需要大量的浮点性能和带宽来提高效率和速度。采用数千个处理核心,针对矩阵数学运算进行了优化,并传送数十到数百TFLOPS的性能,PPU 300是能够传送基于深度神经网络的人工智能和机器学习应用所需性能的计算平台。
此外,应用本文公开的一种或更多种技术产生的图像可以用于训练,测试或证明用于识别现实世界中的对象和环境的DNN。这样的图像可以包括道路,工厂,建筑物,城市环境,农村环境,人类,动物以及任何其他物理对象或真实环境的场景。此类图像可用于训练,测试或认证在机器或机器人中使用的DNN,以操纵,处理或修改现实世界中的物理对象。此外,此类图像可用于训练,测试或认证在自动驾驶车辆中使用的DNN,以在现实世界中导航和移动车辆。另外,应用本文公开的一种或更多种技术产生的图像可以用于向这些机器,机器人和车辆的用户传达信息。
图5D示出了根据至少一个实施例的可用于训练和利用机器学习的示例性系统555的组件。如将要讨论的,可以由计算设备和资源或单个计算系统的各种组合来提供各种组件,其可以在单个实体或多个实体的控制下。此外,方面可以由不同实体触发,发起或请求。在至少一个实施例中,可以由与提供商环境506相关联的提供商来指导神经网络的训练,而在至少一个实施例中,可以通过能够通过客户端设备502或其他此类资源访问提供商环境的顾客或其他用户来请求训练神经网络。在至少一个实施例中,可以由提供者,用户或第三方内容提供者524提供训练数据(或要由训练的神经网络分析的数据)。在至少一个实施例中,客户端设备502可以是表示用户要导航的车辆或对象,例如,其可以提交请求和/或接收有助于设备导航的指令。
在至少一个实施例中,请求能够在至少一个网络504上被提交,以被提供商环境506接收。在至少一个实施例中,客户端设备502可以是使用户能够生成并发送此类请求的任何适当的电子和/或计算设备,例如但不限于台式计算机,笔记本计算机,计算机服务器,智能电话,平板计算机,游戏机(便携式或其他),计算机处理器,计算逻辑和机顶盒。一个或更多个网络504可以包括用于传输请求或其他此类数据的任何适当的网络,例如可以包括互联网,内联网,蜂窝网络,局域网(LAN),广域网(WAN),个人区域网络(PAN),对等方之间直接无线连接的ad hoc网络等。
在至少一个实施例中,在该示例中,可以在接口层508接收请求,该接口层可以将数据转发到训练和推理管理器532。训练和推理管理器532可以是包括用于管理请求和服务对应数据或内容的硬件和软件的系统或服务,在至少一个实施例中,训练和推理管理器532可以接收训练神经网络的请求,并且可以为请求训练模块512提供数据。在至少一个实施例中,训练模块512可以选择合适的模型或神经网络来使用,如果没有被请求指定,并且可以使用相关的训练数据来训练模型。在至少一个实施例中,训练数据可以是存储在训练数据存储库514中,从客户端设备502接收或从第三方提供商524获得的一批数据。在至少一个实施例中,训练模块512可以负责训练数据。神经网络可以是任何适当的网络,例如递归神经网络(RNN)或卷积神经网络(CNN)。一旦训练了神经网络并成功地对其进行了评估,就可以将经训练的神经网络存储在例如模型存储库516中,该模型存储库可以存储用于用户,应用程序或服务等的不同模型或网络。在至少一个实施例中,具有可以基于多个不同因素使用单个应用程序或实体的多个模型。
在至少一个实施例中,在随后的时间点,可以从客户端设备502(或另一种这样的设备)接收至少部分地受经训练的神经网络确定或影响的内容(例如,路径确定)或数据的请求。该请求可以包括例如要使用神经网络处理以获得一个或更多个推论或其他输出值,分类或预测的输入数据,或者对于至少一个实施例,可以由接口层508接收输入数据,并且虽然也可以使用不同的系统或服务,但它还是指向推理模块518的。在至少一个实施例中,如果还没有本地存储在推理模块518中,则推理模块518可以从模型存储库516获得适当的训练网络,例如本文所讨论的经训练的深度神经网络(DNN)。推理模块518可以提供数据作为训练网络的输入,然后可以生成一个或更多个推理作为输出。例如,这可以包括输入数据实例的分类。在至少一个实施例中,然后可以将推理发送到客户端设备502,以向用户显示或进行其他通信。在至少一个实施例中,还可以将用于用户的上下文数据存储到用户上下文数据存储库522中,该用户上下文数据存储库522可以包括关于用户的数据,该数据可以用作生成推理或获取实例后确定返回到用户的数据时对网络的输入。在至少一个实施例中,也可以将可能包括输入或推理数据中的至少一些的相关数据存储到本地数据库534中,以处理将来的请求。在至少一个实施例中,用户可以使用账户信息或其他信息来访问提供商环境的资源或功能。在至少一个实施例中,如果允许和可用,则还可以收集用户数据并将其用于进一步的训练模型,以便为将来的请求提供更准确的推理。在至少一个实施例中,可以通过用户界面接收对在客户端设备502上执行的机器学习应用程序526的请求,并通过相同的界面显示结果。客户端设备可以包括诸如用于生成请求和处理结果或响应的处理器528和存储器562之类的资源,以及至少一个用于存储用于机器学习应用程序526的数据的数据存储元件552。
在至少一个实施例中,处理器528(或训练模块512或推理模块518的处理器)将是中央处理单元(CPU)。但是,如上所述,这种环境中的资源可以利用GPU来处理至少某些类型的请求的数据。具有数千个内核的GPU(例如PPU 300)被设计为处理大量的并行工作负载,因此,在用于训练神经网络和生成预测的深度学习中变得很流行。尽管使用GPU进行离线构建可以更快地训练更大,更复杂的模型,但离线生成预测意味着无法使用请求时间输入特征,或者必须针对所有特征排列生成预测并将其存储在查找表中才能使用实时请求。如果深度学习框架支持CPU模式,并且模型又小又简单,足以以合理的延迟在CPU上执行前馈,则CPU实例上的服务可以托管模型。在这种情况下,可以在GPU上离线进行训练,而在CPU上实时进行推理。如果CPU方法不可行,则服务可以在GPU实例上运行。但是,由于GPU具有与CPU不同的性能和成本特征,因此运行将运行时算法卸载到GPU的服务可能要求其设计与基于CPU的服务不同。
在至少一个实施例中,可以从客户端设备502提供视频数据以在提供商环境506中进行增强。在至少一个实施例中,可以对视频数据进行处理以在客户端设备502上进行增强。在至少一个实施例中,视频数据可以从第三方内容提供者524进行流传输,并由第三方内容提供者524,提供者环境506或客户端设备502增强。在至少一个实施例中,可以从客户端设备502提供视频数据以用作在提供者环境506中训练数据。
在至少一个实施例中,可以由客户端设备502和/或提供商环境506来执行有监督和/或无监督训练。在至少一个实施例中,一组训练数据514(例如,分类或标记的数据)作为输入提供,以用作训练数据。在一个实施例中,该组训练数据可以在生成对抗训练配置中使用以训练生成器神经网络。
在至少一个实施例中,训练数据可以包括要对其训练神经网络的至少一个人类对象,化身或角色的图像。在至少一个实施例中,训练数据可以包括至少一个要为其训练神经网络的对象类型,以及标识该对象类型的信息的实例。在至少一个实施例中,训练数据可以包括一组图像,每个图像包括一种对象类型的表示,其中,每个图像还包括标签,元数据,分类或标识相应图像中表示的对象类型的其他信息或与之相关联。各种其他类型的数据也可以用作训练数据,可以包括文本数据,音频数据,视频数据等等。在至少一个实施例中,训练数据514被提供作为训练输入到训练模块512。在至少一个实施例中,训练模块512可以是包括硬件和软件的系统或服务,例如执行训练应用的一个或更多个计算设备,用于训练神经网络(或其他模型或算法等)。在至少一个实施例中,训练模块512接收指示要用于训练的模型的类型的指令或请求。在至少一个实施例中,模型可以是对于这种目的有用的任何适当的统计模型,网络或算法,可以包括人工神经网络,深度学习算法,学习分类器,贝叶斯网络等。在至少一个实施例中,训练模块512可以从适当的存储库516中选择初始模型或其他未经训练的模型,并利用训练数据514来训练模型,从而生成可以经训练的模型(例如,经训练的深度神经网络),其可用于对相似类型的数据进行分类或生成其他此类推论。在不使用训练数据的至少一个实施例中,每个训练模块512仍然可以选择适当的初始模型以对输入数据进行训练。
在至少一个实施例中,可以以多种不同的方式来训练模型,这可以部分地取决于所选择的模型的类型。在至少一个实施例中,可以向机器学习算法提供一组训练数据,其中模型是通过训练过程创建的模型伪像。在至少一个实施例中,训练数据的每个实例包含正确答案(例如,分类),其可以被称为目标或目标属性。在至少一个实施例中,学习算法在训练数据中找到将输入数据属性映射到目标的模式,要预测的答案,并且输出捕获这些模式的机器学习模型。在至少一个实施例中,然后可以使用机器学习模型来获得针对未指定目标的新数据的预测。
在至少一个实施例中,训练和推理管理器532可以从包括二进制分类,多分类,生成和回归模型的一组机器学习模型中进行选择。在至少一个实施例中,要使用的模型的类型可以至少部分取决于要预测的目标的类型。
GAN辅助的视频编码和重建
视频会议和类似的应用程序需要大量带宽才能通过网络将图像传输到边缘设备。如果没有足够的带宽,则图像和/或音频质量会受到影响。可以采用常规的图像压缩技术来在传输之前压缩图像并解压缩图像以在接收设备处显示。但是,当带宽极度受限或连接不可靠时,常规技术可能不够鲁棒。
在诸如视频会议(VC)之类的应用程序中,其中在相对一致的情况下传输单个对象的大量的连续镜头,可以使用生成器神经网络(诸如基于样式的生成器系统100)对视频进行编码以作为中间潜码或外观矢量。合成神经网络(诸如合成神经网络140)然后可以从外观矢量重建图像。
在一个实施例中,外观矢量包括抽象潜码(例如,中间潜码),一组(面部)界标点,一组与众所周知的面部动作编码系统(FACS)有关的系数,或表示学习的特征嵌入空间中面部外观的矢量中的至少一个。
可以捕获和处理对象的图像,以将每个视频帧投影或映射到合成神经网络的潜在空间中,以产生被发送到接收设备的外观矢量。外观矢量编码对象的属性,并且是图像的压缩表示。在潜在空间中运行的合成神经网络可以配置为渲染外观矢量,以在接收器处重建图像,从而有效地对外观矢量进行解压缩。例如,在视频会议期间,在照相机,姿势和照明相当稳定的条件下,对象通常是一个人。这样的人讲话和收听的视频流在很大程度上是多余的,因为视频帧仅包含同一人的微小变化。
此外,标准视频广播通常在诸如对象的外观之类的方面几乎不提供高级控制。相反,合成神经网络能够增强控制能力,特别是能够使特定对象的特征与在视频帧中捕获图像的人的运动解耦合的能力。因此,如本文进一步所述,使用合成神经网络来重建压缩视频使得能够在重建期间进行控制修改。
外观矢量为重建的视频帧提供姿势,表情等的实时信息,并且复制数据有助于捕获和广播相似性的人的基本特征。复制数据(例如,受过训练的神经网络的权重)可以在训练期间确定并发送到接收器。
在合成神经网络的训练期间使用的人类对象的特征可以应用于重建的视频帧-即使当不同的人类对象出现在从中生成外观矢量的捕获图像中。换句话说,复制数据通过合成神经网络传输到重建的视频帧。复制数据可以使用被捕获和广播其相似性的同一个人来生成,但是具有不同的属性,例如不同的发型,衣服和/或场景照明。例如,当该人具有她喜欢的发型,在她穿着制服时以及在演播室照明条件下时,可以生成该人的复制数据。相反,可以在同一个人的头发样式不同,戴着帽子或眼镜且光线不足的情况下生成外观矢量。复制数据将被传输到重建图像上,因此她似乎拥有自己喜欢的发型,穿着制服,并且在演播室照明条件下捕获了她的图像。在另一个示例中,可以为另一个人生成复制数据,并且将该另一个人的属性转移到重建图像。因此,复制数据可用于修改重建图像的一个或更多个方面。在另一个实施例中,由外观神经提供由合成神经网络用于重建的各个属性。例如,其图像被捕获的人可以选择广播给接收机的不同属性(例如,戴眼镜,眼睛的颜色等)。在另一示例中,接收机可以选择一个或更多个不同的属性以用于重建。
现在将根据用户的需求,给出关于可用于实现前述框架的各种可选架构和特征的更多说明性信息。应该特别注意的是,以下信息是出于说明目的而提出的,不应以任何方式解释为限制。下列任何特征都可以视需要并入或不排除所描述的其他特征。
图6A示出了适用于实现本公开的一些实施例的示例性视频流传输系统600。应该理解,本文描述的这种和其他布置仅作为示例阐述。除了或代替所示的那些,可以使用其他布置和元件(例如,机器,界面,功能,命令,功能的分组等),并且可以完全省略一些元件。此外,本文描述的许多元件是功能实体,其可以被实现为离散或分布式组件或与其他组件结合并且以任何合适的组合和位置来实现。本文描述为由实体执行的各种功能可以由硬件,固件和/或软件来执行。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。此外,本领域普通技术人员将理解,执行示例性视频流系统600的操作的任何系统都在本公开的实施例的范围和精神内。
图6A包括客户端设备603和604(其可以包括与图5B的示例处理系统500,图5C的示例系统565和/或图5D的示例系统555相似的组件,特征和/或功能)以及一个或更多个网络504(可能与本文描述的一个或更多个网络类似)。在本公开的一些实施例中,系统600可以包括提供商环境506,并且客户端设备603和/或604可以分别是客户端设备502。尽管发送客户端设备603被描述为源或发送者,但是发送客户端设备603可以被配置为同时执行目的地或接收客户端设备604的操作。类似地,尽管将一个或更多个接收客户端设备604描述为目标或接收者,但是一个或更多个接收客户端设备604可以是配置为同时执行源或发送客户端设备603的操作。
在系统600中,对于视频会议会话,一个或更多个接收客户端设备604可以使用数据捕获组件614来捕获输入数据。输入数据可以是图像,音频,注视方向,注视位置和由输入设备560捕获的其他类型的数据。数据捕获组件614提供捕获的数据,用于训练编码器616将输入潜在空间(例如潜在空间Z)中的输入投影到与合成神经网络(例如中间潜空间W)关联的潜在空间中。当数据是人605(例如与发送客户端设备603交互或正在观看发送客户端设备603的人)捕获的视频帧时,编码器616被训练为每个帧产生外观矢量。一旦训练了编码器616以将输入潜在空间中的输入投影到潜在空间W中的外观矢量,则编码器将人605的捕获帧转换为外观矢量。
在训练期间学习编码器616的参数(例如权重),并且当部署编码器616以生成外观矢量时,使用该参数来处理输入的潜码。在一个实施例中,编码器616包括映射神经网络110,并且接收一个或更多个客户端设备604内的解码器622包括合成神经网络140和样式转换单元115。
在一实施例中,编码器616可产生一帧的外观矢量,然后产生外观矢量调整一个或更多个后续帧。在一个实施例中,编码器616可以被配置为基于度量或以预定间隔生成外观矢量,以替代或补充一个或更多个帧的外观矢量调整。
在另一个实施例中,一个或更多个接收客户端设备604可以在两个外观矢量之间进行内插以生成附加的外观矢量和附加的重建帧。附加的重建帧可以重建比捕获的帧更多的帧。外观矢量可以使解码器622重建不同的图像,可以将其视为高维空间中的矢量,并且可以对这些“关键”外观矢量进行插值,以产生与对应于“关键”外观矢量的重建帧“之间”的图像对应的外观矢量。成功训练的解码器622往往具有“更平滑”的潜在空间,其中内插的外观矢量忠实地捕获了捕获图像之间的平滑自然的视觉过渡。
当发送客户端设备603没有为每个捕获图像生成外观矢量时,附加的重建帧可以为没有生成外观矢量的帧重建帧。可以通过重建附加帧来获得慢动作效果。当一个或更多个外观矢量被破坏或丢弃(由于网络拥塞等)并且未被接收客户端设备604接收到时,附加的重建帧可以为丢失的外观矢量重建帧。此外,可以由发送客户端设备603压缩外观矢量和外观矢量调整中的一个或更多个,并由一个或更多个接收客户端设备604使用常规技术解压缩。
外观矢量(或外观矢量调整)由发送客户端设备603经由一个或更多个网络504发送到一个或更多个接收客户端设备604。发送客户端设备603还可以将复制数据615经由一个或更多个网络504发送到一个或更多个接收客户端设备604。在一个实施例中,复制数据615以安全的方式被存储在耦合到提供商环境506(如图6A所示)的存储器中和/或在发送客户端设备603中。在一个实施例中,人605可以选择一个或更多个单独的用户属性612,其被发送到通过一个或更多个接收客户端设备604以进行重建。
在一个实施例中,通过训练合成神经网络来生成用于特定对象(诸如人605)的复制数据615。特定对象可以是真实的或合成的角色,包括人类和/或计算机生成的化身,例如人,动物,生物等。训练数据可以包括包含该对象的渲染的或捕获的视频的帧。可以使用特定对象面部的视频帧而不是使用许多不同人的面部图像来训练合成神经网络。在一个实施例中,训练可以从已经在许多不同的人的面部上进行训练的预先训练的合成神经网络开始,然后对特定对象的面部的视频帧进行微调。
当执行附加训练时,可以预先生成复制数据615,或者可以连续地生成和/或更新复制数据615,或者可以周期性地更新复制数据615。在一个实施例中,发送客户端设备603可以使用图2D所示的生成对抗网络270配置来连续训练合成神经网络,以细化与人605相关联的复制数据615。在一个实施例中,除了编码器616之外,发送客户端设备603还包括解码器622;可以将人605的捕获图像与发送客户端设备603内的解码器622从外观矢量生成的重建图像进行比较。然后更改复制数据615,以减少在发送客户端设备内生成的重建图像与捕获的图像之间的差异。在另一个实施例中,当捕获图像也可用时,提供商环境506改变复制数据615,并且提供商环境506实现图2D中所示的GAN 270训练框架以执行连续或周期性训练。
接收客户端设备604可以经由通信接口621接收外观矢量和复制数据615,并且解码器622可以根据复制数据615来重建由外观矢量编码的图像。接收客户端设备604然后可以经由显示器624显示重建图像。在一个实施例中,一个或更多个接收客户端设备604还接收一个或更多个用户属性612,该用户属性612也影响重建图像。解码器622可至少包括合成神经网络140,训练合成神经网络的实例以产生复制数据615,或者另一合成神经网络。
在一个实施例中,合成神经网络140从512个16位浮点数的潜码重建高度逼真的1024×1024像素图像。在另一个实施例中,潜码包括少于512个浮点或整数格式。潜码由发送客户端设备603发送到接收客户端设备604,并用于合成人605的视频流。以30或60FPS发送每个生成帧包含8kb的潜码表示240或480Kbps-百万像素视频流通常所需带宽的一小部分。
图6B示出了用于实现本公开的一些实施例的各种外观矢量。输入数据可以是图像606,音频607,注视方向,注视位置以及由输入设备560捕获的其他类型的数据。编码器616处理输入数据以生成外观矢量。外观矢量对输入数据的属性进行编码,并且是输入数据的压缩表示。在一个实施例中,外观矢量包括抽象潜码610(例如,中间潜码),一组(面部)界标点611,一组FACS系数613或表示学习特征嵌入空间中的面部外观的矢量中的至少一个。
图6C示出了根据一个实施例的用于GAN辅助视频压缩的方法650的流程图。本文所述的方法650的每个方框包括可以使用硬件,固件,和/或软件的任意组合执行的计算过程。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。方法650也可以体现为存储在计算机存储介质上的计算机可用指令。该方法可以由独立应用程序,服务或托管服务(独立或与另一托管服务组合)或另一产品的插件(仅举几例)提供。另外,通过示例的方式,参照图6A的系统描述了方法650。但是,该方法可以附加地或替代地由任何一个系统或系统的任何组合来执行,包括但不限于本文所述的那些。此外,本领域普通技术人员将理解,执行方法650的任何系统在本公开的实施例的范围和精神内。
在步骤655处,传输特定于第一对象的复制数据615,用于配置远程合成神经网络以基于复制数据615重建包括特征在内的面部图像。在一个实施例中,远程合成神经网络在客户端设备(诸如一个或更多个接收客户端设备604)内。在一个实施例中,远程合成神经网络包括解码器622。
在步骤660,生成器神经网络处理第一对象或第二对象的捕获图像,以生成编码第一对象或第二对象的面部的外观矢量。第一和第二对象可以分别是真实的或合成的角色,包括人类和/或计算机生成的化身,例如人,动物,生物等。在一个实施例中,生成器神经网络包括映射神经网络,例如映射神经网络110。在一个实施例中,生成器神经网络包括映射神经网络和合成神经网络。在一个实施例中,抽象潜码由合成神经网络处理以产生第一对象的面部的预测图像。在一个实施例中,训练生成器神经网络以产生第一对象的预测图像,其与第一对象的捕获图像进行比较以学习复制数据615。在一个实施例中,将预测图像与捕获图像进行比较,并且生成器神经网络的参数会更新,以减少预测图像和捕获图像之间的差异。在一个实施例中,抽象潜码基于差异而被增量地更新,并且由合成神经网络进行处理以预测面部的后续图像。
在一个实施例中,属性包括头部姿势和面部表情。在一个实施例中,外观矢量是面部的压缩编码。在一个实施例中,外观矢量包括抽象潜码,例如中间潜码和/或一个或更多个样式信号。在一个实施例中,外观矢量编码与衣服,发型或灯光相关的至少一个附加属性。至少一个附加属性可以从捕获图像或传感器中导出。在一个实施例中,外观矢量包括512个16位浮点数的潜码。
在一个实施例中,外观矢量还包括第一对象或第二对象的附加部分的属性,并且远程合成神经网络还被配置为重建图像以包括附加部分。附加部分可以包括肩膀,脖子,手臂或手中的至少一个。
在一个实施例中,在捕获图像中检测面部界标点并将其用于生成外观矢量。在一个实施例中,通过根据学习或优化的矩阵变换面部界标点来计算抽象潜码。在一个实施例中,通过学习优化矩阵的神经网络来实现优化矩阵。在一个实施例中,将抽象潜码与通过根据学习或优化的矩阵变换面部界标点而计算出的预测抽象潜码进行比较。更新矩阵以减少抽象潜码与预测的抽象潜码之间的差异。在一个实施例中,抽象潜码由合成神经网络处理以产生第一对象的面部的预测图像,将预测图像与捕获图像进行比较,并且更新矩阵以减小预测图像和捕获图像之间的差异。在一个实施例中,生成器神经网络包括映射神经网络,并且将在捕获图像中检测到的面部界标点输入到映射神经网络以计算抽象潜码。在一个实施例中,将与面部界标点配对的预测图像与与面部界标点配对的捕获图像进行比较以产生差异,并更新生成器神经网络的参数以减小差异。
在步骤670,将外观矢量发送到远程合成神经网络。在一个实施例中,在视频会议会话期间将外观矢量发送到远程合成神经网络。在一个实施例中,捕获图像是视频的帧,并且生成器神经网络被配置为针对与附加的捕获图像相对应的视频的每个附加的帧生成外观矢量调整值。
图6D示出了根据一个实施例的用于GAN辅助的视频重建的方法675的流程图。在步骤680,获得特定于对象的复制数据615以配置合成神经网络。在一个实施例中,解码器622包括合成神经网络。对象可以是真实的或合成的。在一个实施例中,复制数据615包括在合成神经网络的训练期间学习的权重。
在步骤685,接收外观矢量,该外观矢量对在视频帧中捕获的人脸的属性进行编码。在一个实施例中,人脸是人605的脸。在另一个实施例中,人脸不是人605的脸。例如,复制数据615可以表示对象的特征,例如精灵化身。在视频会议会话期间,由解码器622处理外观矢量,以重建人605的面部图像,该图像包括由复制数据615定义的特征。换句话说,在显示器624重建图像的观看者看到一个精灵化身,其表情和姿势与人605相匹配。
在一个实施例中,外观矢量是人605的人脸的压缩编码。在一个实施例中,针对视频的每个附加帧接收外观矢量调整值。在一个实施例中,每个外观矢量调整被连续地应用于外观矢量,以针对包括特性的视频的每个附加帧重建人脸的附加图像。
步骤690,合成神经网络处理外观矢量以重建人脸的图像,该图像包括由复制数据定义的特征。在一个实施例中,在观看环境中显示人脸的重建图像,其中合成神经网络根据观看环境中的照明来重建图像。例如,代替使用在外观矢量和/或复制数据615中编码的照明属性,合成神经网络基于显示重建图像的环境中的照明来重建图像。在一个实施例中,照明或其他信息可以由传感器提供。
图7A是用于实施本公开的一些实施例的包括投影仪700的合成神经网络训练配置的概念图。在一个实施例中,使用图2D所示的生成对抗网络270配置,根据GAN目标训练编码器710和合成神经网络715,以分别生成图像的外观矢量和重建图像。然后,可以使用图7A中所示的配置来共同训练合成神经网络715和编码器710。经训练的编码器710和合成神经网络715可以分别被部署为编码器616和解码器622,以在实时视频会议期间使用。
在一个实施例中,投影仪700被实现在发送客户端设备603内,并且被用于改善由发送客户端设备603生成的外观矢量的质量。投影仪700通过包括合成神经网络715模仿一个或更多个接收客户端设备604的操作。解码器622可以是合成神经网络715的一个实例。如前所述,编码器616可以执行投影以映射人605的每个捕获图像以产生外观矢量。合成神经网络715从外观矢量重建预测图像720。
训练损失单元725将预测图像720与对应的捕获图像705进行比较,以识别预测图像720和捕获图像705之间的差异。在一个实施例中,训练损失单元725可以使用学习到的感知图像块相似度(LPIPS)技术来识别相应图像块之间的像素值差异。训练损失单元725更新编码器710的参数(例如权重)以减小预测图像720和捕获图像705之间的差异。在一个实施例中,训练损失单元720被配置为更新合成神经网络715使用的参数,从而更新捕获图像中对象的复制数据615。
在推理期间,当一个或更多个接收客户端设备604中的解码器622基于从发送客户端设备603接收到的外观矢量来重建图像时,发送客户端设备603可以继续操作投影仪700以持续改善编码器710和/或合成神经网络715的性能。以这种方式,编码器710和/或合成神经网络715可以在推理期间使用具有更多种不同属性的更多捕获图像来“训练”。继续仅更新编码器710内的合成神经网络715的参数不会影响外观矢量的质量。发送客户端设备603可以被配置为随着合成神经网络715的性能改善而更新复制数据615和/或解码器622的参数,使得解码器622的性能也可以改善。
编码器710不是执行投影以映射每个捕获图像705以产生外观矢量,而是最初执行投影以产生用于第一捕获图像的第一外观矢量。在第一捕获图像之后,编码器710可以将第一外观矢量用作输入,从该输入产生第二外观矢量。当投影操作的计算量很大时,从先前的外观矢量预测外观矢量可能在计算上很有效,从而实现了实时性能。由于相邻的视频帧通常很相似,因此使用先前的外观矢量执行增量投影可以提高计算速度和图像质量的性能。投影操作不是从潜在空间中的任意点开始,而是从投影算法为前一帧生成的潜在矢量开始。编码器710有效地执行局部搜索而不是全局搜索以产生后续的外观矢量。增量投影还可以产生时间上更连贯的结果视频,从而减少由全局搜索中的不同选择引起的闪烁或帧间失真,从而避免每帧在潜在空间中产生不同的,几乎相等的点。
在一个实施例中,投影仪700为每个外观矢量生成校正数据,其中基于预测图像720和捕获图像705之间的比较来计算校正数据。预测图像720可以用作可用于传统编码器(诸如H.265高效视频编码(HEVC)格式编码器)的附加宏块预测方案。在一个实施例中,当接收客户端设备604仅支持常规视频编码数据时,发送客户端设备603可以生成可以由接收客户端设备604解码的常规编码视频数据。
在一个实施例中,当与先前捕获图像相比在捕获图像中发生显著变化时,可以执行投影操作以映射捕获图像的另一外观矢量,然后恢复增量投影。可以计算置信度度量以确定何时发生显著变化。例如,置信度度量可以指示与先前捕获图像相比在捕获图像中改变的像素的数量。当置信度度量大于阈值时,可以启动投影操作。在另一个实施例中,可以针对预测图像或者比较对应的预测图像和捕获图像来评估置信度度量。在一个实施例中,接收客户端设备604(例如,远程合成神经网络)可以请求经由投影操作生成的外观矢量。客户端设备604可以基于对针对重建图像计算的置信度度量的评估来发起请求。
图7B是用于实现本公开的一些实施例的包括图7A的投影仪700的端对端系统730的概念图。系统730至少包括发送客户端设备603和接收客户端设备604。编码器710在发送客户端设备603内,并生成通过一个或更多个网络504传输到接收客户端设备604内的解码器722的外观矢量。解码器722可以是合成神经网络715的实例。解码器722根据复制数据处理外观矢量以产生重建图像712。重建图像712然后可以在显示器624处显示给观看者。复制数据可以由捕获图像705中的人或观看者来选择。
图7C是用于实现本公开的一些实施例的,用于生成训练数据的配置的概念图。使用投影来生成潜码的替代方法是使用矩阵或神经网络将面部界标点转换成潜码。当使用面部界标点时,使用界标训练数据学习矩阵的参数或神经网络的权重。面部界标点可以由界标检测器735从捕获图像中提取以产生界标训练数据。界标检测器735可以使用常规计算机视觉技术或神经分析技术来实现。面部标志性点描述了面部关键点的位置(眼睑和嘴唇的边缘,瞳孔中心,鼻梁等),并捕获了面部的重要运动和变形。界标检测器735可用于检测其他类型的界标,包括不限于图像空间的面部界标。例如,界标可以是与面部动作编码系统(FACS)有关的一组系数,面部外观的其他属性,或表示学习的特征嵌入空间中的面部外观的矢量。FACS定义了一组与所显示的情绪相对应的面部肌肉运动。
所提取的面部界标点可以用作外观矢量,用于生成外观矢量或与外观矢量分开提供。通常,不同的训练数据集可以用于生成针对不同对象的复制数据(真实和合成的)。此外,不同的训练数据集可用于为同一主题生成不同的复制数据,其中每天或每个会话的属性都不同,例如人的衣服,发型以及由于化妆,照明等特定于每个复制数据的变化。
图7D是用于实现本公开的一些实施例的,用于使用面部界标点来预测外观矢量的训练配置的概念图。在一个实施例中,线性回归用于学习或优化将面部界标点的矢量转换为外观矢量(例如,潜码矢量)的矩阵。与投影捕获图像以产生外观矢量相比,使用面部界标来产生外观矢量可能对训练图像和实时捕获图像之间的变化(不同的发型,不同的服装等)更具弹性。
界标训练数据由回归矩阵740转换为与接收客户端设备604内的合成神经网络或解码器722相关联的潜在空间。具体而言,根据回归矩阵转换每个训练图像的面部界标点或神经网络以产生预测的外观矢量。训练损失单元745将由训练的编码器710生成的投影外观矢量与预测外观矢量进行比较,并更新回归矩阵的参数以减小投影外观矢量与预测外观矢量之间的差异。
图7E是用于实现本公开的一些实施例的端到端系统750的概念图。系统750至少包括发送客户端设备603和接收客户端设备604。界标检测器735在发送客户端设备603内,并且生成通过一个或更多个网络504传输到接收客户端设备604内的解码器722的外观矢量。解码器722可以是合成神经网络715的实例。解码器722根据复制数据处理外观矢量来产生重建图像712。然后,重建图像712可以在显示器624处显示给观看者。复制数据可以由捕获图像705中的人或观看者来选择。
在一个实施例中,代替将外观矢量发送给解码器722,发送客户端设备603可以替代地针对每个捕获图像发送检测到的界标。在这样的实施例中,回归矩阵740包括在接收客户端设备604内,并且处理检测到的界标以在接收客户端设备604内产生外观矢量。可以将在训练期间学习的回归矩阵740所使用的参数以及复制数据提供给接收方客户端设备604。
常规的压缩技术可以应用于外观矢量,例如通过对面部界标的坐标进行量化和增量编码。在一个实施例中,当使用检测到的界标来生成外观矢量时,复制数据也可以用于控制重建图像的特征,其相较于捕获图像中人物的特征。重建的人类对象的属性,例如发型,衣服和/或照明,可以与外观矢量或复制数据(例如,过滤器)一起提供。
因为一组界标训练数据可以同样好地投影或变换为许多不同的预测外观矢量,所以在训练期间由回归矩阵740学习的回归矩阵在代数方面可以具有较大的“零空间”。换句话说,可能存在高维潜在空间的许多区域,从这些区域可以生成很好地映射到界标训练数据的重建图像。但是,重建图像有时可能无法与捕获图像匹配,从而导致时间伪像。例如,在接收者观看的动画中,时间伪像可能表现为细微但明显的闪烁或奇特的抖动失真。可以通过学习回归矩阵直接改善面部界标到潜在空间的映射来改善重建图像的质量。
图8A是用于实现本公开的一些实施例的端到端系统训练配置800的概念图。可以首先使用图2D中所示的生成对抗网络270配置以GAN目标训练合成神经网络715,以分别生成图像的外观矢量和重建图像。然后在配置800中,与合成神经网络715一起训练回归矩阵740,以分别预测图像的外观矢量并重建图像。配置800可以用于执行端到端回归,以将面部界标转换为外观矢量。经训练的回归矩阵740和合成神经网络715可以分别被部署为编码器710和解码器722,以在实时视频会议期间使用。
训练损失单元825将重建图像与图像训练数据进行比较以识别重建图像与图像训练数据之间的差异。在一个实施例中,训练损失单元825可以使用LPIPS技术来识别差异。训练损失单元825更新回归矩阵740的参数以减小重建图像与图像训练数据之间的差异。在一个实施例中,训练损失单元825被配置为更新合成神经网络715所使用的参数,从而更新所捕获图像中对象的复制数据。
图8B是用于实现本公开的一些实施例的端到端系统训练配置850的概念图。配置850可以用于联合训练编码器716,以使用条件GAN目标将面部界标转换为外观矢量和合成神经网络715。图2D中所示的生成对抗网络270配置可以与编码器716和合成神经网络715一起使用,以分别预测图像的外观矢量和重建图像。鉴别器神经网络875确定与也输入到编码器的地标训练数据配对的重建图像是否看起来类似于与正确界标配对的图像训练数据。基于该确定,训练损失单元835调整鉴别器875,合成神经网络715和/或编码器716的参数。一旦利用条件GAN目标训练了合成神经网络715,则编码器716和/或合成神经网络715可以在实时视频会议期间使用。经训练的编码器716和合成神经网络715可以分别部署为编码器616和解码器622。
在一个实施例中,合成神经网络715被配置为产生与背景部分分离的每个重建图像的前景部分。前景部分至少包括重建图像的面部部分,还可以包括出现在捕获图像中的人的肩膀和其他部位。合成神经网络715还可以被配置为生成指示单独的前景和背景部分的α蒙版(通道)或遮罩。在一个实施例中,一个或更多个接收客户端设备604可以将头部和面部重建图像的前景部分合成到任意背景上,或者完全修改或删除背景部分
在训练期间,在将每个重建图像的前景部分和α蒙版进行合成以生成鉴别器神经网络875接收并对其进行逼真度评估的重建图像之前,它们可以相对于背景部分随机移动。效果是训练合成神经网络715以生成高质量的α蒙版。相对位移(通过移动)是一种简单而鲁棒的技术,其使得在随机位移的部分被合成之后,鉴别器神经网络875分配高的真实感分数。相对位移还可以增强编码器716和/或合成神经网络715(例如,生成器神经网络)解开重建图像的背景,姿势和纹理属性的能力,并提高生成器神经网络的有效性。可以使用类似的技术来鼓励合成神经网络715分割并合成图像中捕获的人605的其他方面,例如在手势中使用的衣服或手和手臂。
在一个实施例中,编码器616、710或716被配置成将捕获图像中的至少面部与背景图像数据(例如,背景部分)分离,对背景图像数据进行编码,并且将编码后的背景图像数据从发送客户端设备603发送,以被一个或更多个接收客户端设备604与人脸的重建图像组合。在一个实施例中,背景图像数据由发送客户端设备603使用常规技术压缩,以传输到一个或更多个接收客户端设备604。在一个实施例中,通过操作发送客户端设备603中的合成神经网络715减少了传输背景图像数据所需的带宽,并根据用于重建图像的α蒙版,去除被重建图像的前景部分覆盖的背景图像数据的区域。当存在高可信度,即与先前重建图像相比背景部分被改变时,背景部分的部分覆盖区域可以被发送到一个或更多个接收客户端设备604。
在一个实施例中,鉴别神经网络875的注意力可以集中在面部的语义关键区域上,例如眼睛,嘴和眉毛。在一个实施例中,例如使用人工编码的试探法或在人类注视跟踪数据上训练的图像显著性网络来预测每个训练图像的语义上最重要的区域。在输入到鉴别器神经网络875的一些图像中的语义重要区域之外,图像分辨率可以被人为地降低,或者图像可能以其他方式被干扰。在语义重要区域之外的区域的修改可以导致合成神经网络715将附加的容量分配给重建图像的区域,这对于人类观看者将是最重要的。
在一个实施例中,将音频数据直接作为波形,频谱图或音频的类似低级表示,或者编码为诸如音素的高级表示,并入到生成器神经网络训练配置800或850中。当音频数据是音素时,可以以类似于面部界标的方式来检测音素。在一个实施例中,鉴别器神经网络875学习在面部应该被制造出来的声音,音素或话语的上下文中判断面部图像的真实性。然后,合成神经网络715学习产生与输入音频数据很好对应的面部。换句话说,一个或更多个接收客户端设备接收可由解码器622用来重建面部图像的音频数据。
在一个实施例中,合成神经网络715增加了存储器以处理音频数据。例如,可以使用递归神经网络(RNN),长期短期记忆(LSTM)和“变压器”关注网络来实现合成神经网络715。合并音频处理能力可用于改善重建图像,包括分组损失或网络服务质量降低视频流但保留音频数据的情况。
在一个实施例中,重建图像被用于改善重建的音频数据的质量。带宽效率极高的外观矢量流可编码有用的“唇读”式信息(例如,嘴巴,舌头,脸颊的形状,嘴唇合拢和张开的确切瞬间等),以改善不良的音频流。可以训练生成器神经网络以在一个或更多个接收客户端设备604上生成改进的,降噪的,源分离的或空间化的音频流。
控制面部外观各方面的能力提供了机会来控制重建的属性,例如基于观察者的注视来控制重建的面部的注视方向。从观看者的角度来看,视频会议的一个常见问题是缺乏明显的眼神交流。由于摄像机很少放置在捕获视频图像的人的眼睛附近,因此视频会议中的谈话者很少感觉到好像在进行眼神交流。眼神交流是社交活动的重要提示,人们认为眼神交流的缺乏是人们更喜欢面对面会议而不是视频会议的原因。同样,在多人视频会议中,人们无法分辨谁在看谁,尤其是由于每个参与者屏幕上的视频窗口布局可能不同。先前的工作已经探索了重新渲染眼睛以创建眼神接触的感觉,但是可以使用潜码,面部界标或其他定义注视位置和/或方向的外观矢量的操纵来增加感知的眼神接触。
例如,合成神经网络715可以稍微改变重建图像中对象的眉头甚至头部方向,以说明不同的注视点或位置。所述修改可以与训练协议耦合,所述训练协议被设计为鼓励合成神经网络715将注视方向与其他方面(诸如面部身份)解耦。因为视频会议系统中的重建发生在一个或更多个接收客户端设备604上,所以视频会议系统可以利用关于参与者视频的布局的本地知识,并且一个或更多个接收客户端设备604的摄像机或传感器可以提供观看者的注视位置。注视位置是显示器上与观看者注视方向相交的位置。可以通过解码器来修改显示给观看者的重建图像中的对象的视线,使得该对象看起来是在看显示另一重建图像的位置或观看者的视线位置。注视位置可以位于正在讲话的对象的重建图像处。操纵视线和注意力的概念已广泛应用于视频会议以外的领域,例如远程呈现化身,其空间关系对于远程呈现系统中的不同参与者而言可能看起来有所不同。
在一个实施例中,在观看环境中显示人脸的重建图像,其中合成神经网络715根据在观看环境中捕获的观看者的注视位置来重建图像。在一个实施例中,图像中人脸的注视方向是朝向注视位置。在一个实施例中,外观矢量包括与人脸所观看的第二图像相对应的注视位置,并且人脸的重建图像在观看环境中的注视方向朝向也重建并显示在观看环境中的第二图像。
在图像重建期间修改面部外观的能力使得能够改变照明。可以基于来自观看环境中的传感器的复制数据或环境数据来改变照明。在观看环境中匹配照明可能会使广播对象的存在更具幻觉。当观看者的眼睛跟踪数据可用时,解码器622或722也可以应用运动视差。通常,与实际大小一样的3D内容尊重观看者的运动视差,并且模仿环境的照明本质上比没有这些功能的图像更具吸引力。
在更高的水平上,可以通过引入异步中断来提高社交效率和通过视频会议进行的对话的流程。如今的视频会议缺少打断,因为当一个人想要打断时,很难引起演讲者的关注或注意。同样,由于开始说话与对方听到打断之间的不自然滞后,每次打断都对谈话流程造成更大的干扰。该问题的可能解决方案是当第一个人开始说话时对显示给第一个人的重建图像中的打断的影响进行建模,以预期在远程客户端设备上查看第一个人重建图像的第二个人的反应。关键观察结果是,当第二个人在视频会议会话期间尝试打断第一个人时,就会发生社交交易。但是,要成功,两个人的互动不必相同。
在一个实施例中,可以由合成神经网络715或解码器622或722使用从两个不同的捕获图像生成的外观矢量来执行样式混合,以生成重建图像。如先前结合图1A,1B和2B所描述的,外观矢量可以被变换为一组统计参数,称为样式,其在金字塔层次的不同级别上影响合成神经网络715。例如,在训练了合成神经网络715以生成面部图像之后,影响合成网络4×4和8×8分辨率的“粗略样式”往往会控制所生成面部图像的高级方面,例如姿势,性别,头发的长度,而影响16×16和32×32的“中等样式”则控制着面部特征-是什么使给定的人看起来与众不同,与父母相似,等等。
在一个实施例中,样式混合用于以微妙的方式改变重建图像的外观。例如,将使用运动模糊来捕获人605快速移动的帧,并且从所得外观矢量重建的图像将忠实地重新创建运动模糊。但是,通过将每个帧的相应外观矢量的粗略样式与选定的不包含运动模糊的帧的精细样式进行混合,重建图像可以正确捕获人脸的运动和变形,同时还保留了精细的细节,显得清晰且没有运动模糊。类似的样式混合可用于制作视频,使对象看起来更加清醒或警觉,或者化了妆,穿着某些衣服或特定表情。
在一个实施例中,可以由合成神经网络715执行样式混合,以通过将用于静止图像的精细样式控制与用于模糊图像的粗略样式控制相结合来锐化图像的运动模糊部分。例如,外观矢量包括与视频中人脸模糊的第一帧相对应的第一部分和与视频中人脸被清晰定义的第二帧相对应的第二部分。合成神经网络715进行的处理结合第一部分和第二部分,使用第一部分“控制粗略样式”和第二部分“控制精细样式”重建人脸被清晰定义的图像。在另一示例中,当在帧中捕获的人脸模糊时,合成神经网络715通过使用外观矢量来控制粗略样式并使用复制数据来控制精细样式来重建人脸被清晰定义的图像。
训练和部署生成神经网络组件以使用外观矢量,重建数据和特定属性数据对图像进行编码和重建可以提供更吸引人的视频会议体验。外观矢量为重建的视频帧提供姿势,表情等的实时信息,复制数据为正在广播其相似度的人的基本特征做出了贡献。复制数据(例如经训练的合成神经网络的权重)在训练过程中确定并传输到接收器。用于训练的图像中人类对象的特征可能会应用于重建的视频帧,即使在用于生成外观矢量的捕获图像中出现了不同的人类对象。重建的人类对象的属性(例如发型,衣服和/或照明)可以提供外观矢量或复制数据。例如,可以基于观看者的视线方向或在视频会议期间显示的参与者的图像的相对位置,来控制一个或更多个重建的人类对象的视线。
传输低带宽外观矢量以在远程客户端设备处重建图像减少了提供交互式视频会议体验所需的性能所需的带宽。时间上采样可以用于通过在不同的外观矢量之间进行插值来生成附加帧。可以将常规压缩技术应用于外观矢量和/或背景图像。音频数据可以被发送并用于辅助视频帧的重建。
注意,本文描述的技术可以体现在存储在计算机可读介质中的可执行指令中,以供基于处理器的指令执行机器,系统,装置或设备使用或与其结合使用。本领域技术人员将理解,对于一些实施例,可以包括各种类型的计算机可读介质来存储数据。如本文所使用的,“计算机可读介质”包括用于存储计算机程序的可执行指令的任何合适的介质中的一个或更多个,使得指令执行机器,系统,装置或设备可以从计算机可读介质读取(或获取)指令,并执行用于执行所描述的实施例的指令。合适的存储格式包括电子,磁性,光学和电磁格式中的一种或更多种。常规示例性计算机可读介质的非详尽列表包括:便携式计算机软盘;随机存取存储器(RAM);只读存储器(ROM);可擦可编程只读存储器(EPROM);闪存设备;光学存储设备,包括便携式光盘(CD),便携式数字视频光盘(DVD)等。
应该理解,附图中示出的组件的布置是出于说明的目的,并且其他布置也是可能的。例如,本文描述的一个或更多个元件可以全部或部分地实现为电子硬件组件。可以以软件,硬件或软件和硬件的组合来实现其他元件。此外,可以组合这些其他元件中的一些或全部,可以完全省略一些其他元件,并且可以添加附加组件,同时仍实现本文所述的功能。因此,本文描述的主题可以体现为许多不同的变型,并且所有这些变型都被认为在权利要求的范围内。
为了辅助对本文所述主题的理解,根据动作序列描述了许多方面。本领域技术人员将认识到,各种动作可以由专用电路或电路,由一个或更多个处理器执行的程序指令,或由两者的组合来执行。本文对任何动作序列的描述并不旨在暗示必须遵循为执行该序列而描述的特定顺序。除非本文另外指出或与上下文明显矛盾,否则本文描述的所有方法可以以任何合适的顺序执行。
在描述主题的上下文中(特别是在所附权利要求的上下文中)术语“一”,“一个”和“该”以及类似的引用的使用应解释为涵盖单数形式和复数形式。除非本文另有说明或与上下文明显矛盾,否则为复数形式。术语“至少一个”后面是一个或更多个项目的列表(例如,“A和B中的至少一个”)应理解为是指从所列项目(A或B)中选择的一个项目或所列项目(A和B)中两个或更多个的任意组合,除非本文另有说明或与上下文明显矛盾。此外,前述描述仅出于说明的目的,而非出于限制的目的,因为所寻求的保护范围由下文所述的权利要求及其等同形式限定。除非另外要求,否则本文提供的任何和所有示例或示例性语言(例如“诸如”)的使用仅旨在更好地说明主题,并且不对主题的范围构成限制。在权利要求书和书面说明书中,术语“基于”和其他类似的短语表示产生结果的条件的使用,并不旨在排除产生该结果的任何其他条件。说明书中的任何语言都不应被解释为指示任何未要求保护的要素对于实施所要求保护的发明是必不可少的。
Claims (27)
1.一种计算机实现的方法,包括:
获取特定于真实或合成对象的复制数据以配置合成神经网络;
接收对在视频帧中捕获的人脸的属性进行编码的外观矢量;以及
由所述合成神经网络处理所述外观矢量,以重建包括由所述复制数据定义的特征的所述人脸的图像。
2.根据权利要求1所述的计算机实现的方法,其中,所述外观矢量是所述人脸的压缩编码。
3.根据权利要求1所述的计算机实现的方法,还包括接收所述视频的每个附加帧的外观矢量调整值。
4.根据权利要求3所述的计算机实现的方法,还包括将每个外观矢量调整依次应用于所述外观矢量,以重建包括所述特征的人脸的附加图像。
5.根据权利要求1所述的计算机实现的方法,其中,所述复制数据是通过训练生成器神经网络来确定的,以产生与所述真实或合成对象的捕获图像进行比较的所述真实或合成对象的图像。
6.根据权利要求1所述的计算机实现的方法,其中,所述属性包括头部姿势和面部表情。
7.根据权利要求1所述的计算机实现的方法,其中,所述外观矢量编码与衣服、发型或照明相关联的至少一个附加属性。
8.根据权利要求1所述的计算机实现的方法,还包括:在观看环境中显示所述人脸的所述重建图像,其中,所述合成神经网络根据所述观看环境中的照明来重建所述图像。
9.根据权利要求1所述的计算机实现的方法,还包括:接收与所述人脸的所述重建图像组合的编码背景图像数据。
10.根据权利要求1所述的计算机实现的方法,其中,所述外观矢量包括抽象潜码。
11.根据权利要求10所述的计算机实现的方法,其中,所述抽象潜码是由远程映射神经网络计算的。
12.根据权利要求10所述的计算机实现的方法,其中,通过根据学习的矩阵或优化的矩阵变换面部界标点来计算所述抽象潜码。
13.根据权利要求1所述的计算机实现的方法,其中,在视频会议会话期间,将所述外观矢量传送到所述合成神经网络。
14.根据权利要求1所述的计算机实现的方法,其中,与所述真实或合成对象相比,所述人脸是不同的人。
15.根据权利要求1所述的计算机实现的方法,其中,所述人脸对应于所述真实或合成对象。
16.根据权利要求1所述的计算机实现的方法,还包括:内插与所述视频中的两个帧相对应的第一外观矢量和第二外观矢量,以产生所述外观矢量,其中,所述帧在所述两个帧之间。
17.根据权利要求1所述的计算机实现的方法,还包括:接收音频数据,其中,所述音频数据用于重建所述人脸的所述图像。
18.根据权利要求1所述的计算机实现的方法,其中,所述外观矢量包括与所述视频中人脸模糊的第一帧相对应的第一部分和与所述视频中人脸被清晰地定义的第二帧相对应的第二部分。
19.根据权利要求18所述的计算机实现的方法,其中,所述处理结合所述第一部分和所述第二部分,以通过使用所述第一部分来控制粗略样式并使用所述第二部分来控制精细样式来重建具有清晰地定义的所述人脸的所述图像。
20.根据权利要求1所述的计算机实现的方法,其中,在所述帧中捕获的所述人脸是模糊的,并且所述处理通过使用所述外观矢量来控制粗略样式并使用所述复制数据来控制精细样式来重建具有清晰地定义的所述人脸的所述图像。
21.根据权利要求1所述的计算机实现的方法,还包括:在观看环境中显示所述人脸的所述重建图像,其中,所述合成神经网络根据在所述观看环境中捕获的观看者的凝视位置来重建所述图像。
22.根据权利要求21所述的计算机实现的方法,其中,所述图像中所述人脸的凝视方向朝向所述凝视位置。
23.根据权利要求1所述的计算机实现的方法,其中,所述外观矢量包括与由所述人脸所观看的第二图像相对应的凝视位置,并且所述人脸的所述重建图像在观看环境中的凝视方向朝向所述第二图像,所述第二图像也在所述观看环境中重建和显示。
24.根据权利要求1所述的计算机实现的方法,其中,在包括图形处理单元的部分的虚拟机上执行获取、接收和处理的步骤。
25.根据权利要求1所述的计算机实现的方法,其中,所述图像用于训练、测试或认证在机器、机器人或自动驾驶车辆中采用的神经网络。
26.一种系统,包括被配置为实现解码器的处理器,所述解码器被配置为:
获取特定于真实或合成对象的复制数据以配置合成神经网络;
接收对在视频帧中捕获的人脸的属性进行编码的外观矢量;以及
使用所述合成神经网络处理所述外观矢量,以重建包括由所述复制数据定义的特征的所述人脸的图像。
27.一种非暂时性计算机可读存储介质,其存储指令,当由处理单元执行所述指令时,使所述处理单元执行以下操作:
获取特定于真实或合成对象的复制数据以配置合成神经网络;
接收对在视频帧中捕获的人脸的属性进行编码的外观矢量;以及
由所述合成神经网络处理所述外观矢量,以重建包括由所述复制数据定义的特征的所述人脸的图像。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063010511P | 2020-04-15 | 2020-04-15 | |
US63/010,511 | 2020-04-15 | ||
US17/069,449 | 2020-10-13 | ||
US17/069,449 US11580395B2 (en) | 2018-11-14 | 2020-10-13 | Generative adversarial neural network assisted video reconstruction |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113542759A true CN113542759A (zh) | 2021-10-22 |
CN113542759B CN113542759B (zh) | 2024-05-10 |
Family
ID=77919673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110178888.8A Active CN113542759B (zh) | 2020-04-15 | 2021-02-09 | 生成对抗神经网络辅助的视频重建 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113542759B (zh) |
DE (1) | DE102021109501A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116781912A (zh) * | 2023-08-17 | 2023-09-19 | 瀚博半导体(上海)有限公司 | 视频传输方法、装置、计算机设备及计算机可读存储介质 |
WO2024164596A1 (zh) * | 2023-02-09 | 2024-08-15 | 腾讯科技(深圳)有限公司 | 面部建模模型的训练方法、建模方法、装置、电子设备、存储介质及程序产品 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114880915B (zh) * | 2021-11-24 | 2024-09-27 | 中国电力科学研究院有限公司 | 综合能源计量仿真数据生成方法、装置和存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170214928A1 (en) * | 2016-01-21 | 2017-07-27 | Samsung Display Co., Ltd. | Classification preserving image transform compression |
US20170230675A1 (en) * | 2016-02-05 | 2017-08-10 | Google Inc. | Compressing images using neural networks |
US20180288431A1 (en) * | 2017-03-31 | 2018-10-04 | Nvidia Corporation | System and method for content and motion controlled action video generation |
CN109410131A (zh) * | 2018-09-28 | 2019-03-01 | 杭州格像科技有限公司 | 基于条件生成对抗神经网络的人脸美颜方法及系统 |
CN109711364A (zh) * | 2018-12-29 | 2019-05-03 | 成都视观天下科技有限公司 | 一种人脸图像超分辨重建方法、装置及计算机设备 |
US20190156248A1 (en) * | 2017-11-20 | 2019-05-23 | Yahoo Japan Corporation | Learning apparatus, learning method, and non-transitory computer readable storage medium |
CN110046537A (zh) * | 2017-12-08 | 2019-07-23 | 辉达公司 | 使用递归神经网络进行动态面部分析的系统和方法 |
CN110176054A (zh) * | 2018-02-14 | 2019-08-27 | 辉达公司 | 用于训练神经网络模型的合成图像的生成 |
CN110225350A (zh) * | 2019-05-30 | 2019-09-10 | 西安电子科技大学 | 基于生成式对抗网络的自然图像压缩方法 |
CN110222722A (zh) * | 2019-05-14 | 2019-09-10 | 华南理工大学 | 交互式图像风格化处理方法、系统、计算设备及存储介质 |
US20190297326A1 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Video prediction using spatially displaced convolution |
US20190355150A1 (en) * | 2018-05-17 | 2019-11-21 | Nvidia Corporation | Detecting and estimating the pose of an object using a neural network model |
US10504268B1 (en) * | 2017-04-18 | 2019-12-10 | Educational Testing Service | Systems and methods for generating facial expressions in a user interface |
CN110706157A (zh) * | 2019-09-18 | 2020-01-17 | 中国科学技术大学 | 一种基于身份先验生成对抗网络的人脸超分辨率重建方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
-
2021
- 2021-02-09 CN CN202110178888.8A patent/CN113542759B/zh active Active
- 2021-04-15 DE DE102021109501.8A patent/DE102021109501A1/de active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170214928A1 (en) * | 2016-01-21 | 2017-07-27 | Samsung Display Co., Ltd. | Classification preserving image transform compression |
US20170230675A1 (en) * | 2016-02-05 | 2017-08-10 | Google Inc. | Compressing images using neural networks |
US20180288431A1 (en) * | 2017-03-31 | 2018-10-04 | Nvidia Corporation | System and method for content and motion controlled action video generation |
US10504268B1 (en) * | 2017-04-18 | 2019-12-10 | Educational Testing Service | Systems and methods for generating facial expressions in a user interface |
US20190156248A1 (en) * | 2017-11-20 | 2019-05-23 | Yahoo Japan Corporation | Learning apparatus, learning method, and non-transitory computer readable storage medium |
CN110046537A (zh) * | 2017-12-08 | 2019-07-23 | 辉达公司 | 使用递归神经网络进行动态面部分析的系统和方法 |
CN110176054A (zh) * | 2018-02-14 | 2019-08-27 | 辉达公司 | 用于训练神经网络模型的合成图像的生成 |
US20190297326A1 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Video prediction using spatially displaced convolution |
US20190355150A1 (en) * | 2018-05-17 | 2019-11-21 | Nvidia Corporation | Detecting and estimating the pose of an object using a neural network model |
CN109410131A (zh) * | 2018-09-28 | 2019-03-01 | 杭州格像科技有限公司 | 基于条件生成对抗神经网络的人脸美颜方法及系统 |
CN109711364A (zh) * | 2018-12-29 | 2019-05-03 | 成都视观天下科技有限公司 | 一种人脸图像超分辨重建方法、装置及计算机设备 |
CN110222722A (zh) * | 2019-05-14 | 2019-09-10 | 华南理工大学 | 交互式图像风格化处理方法、系统、计算设备及存储介质 |
CN110225350A (zh) * | 2019-05-30 | 2019-09-10 | 西安电子科技大学 | 基于生成式对抗网络的自然图像压缩方法 |
CN110706157A (zh) * | 2019-09-18 | 2020-01-17 | 中国科学技术大学 | 一种基于身份先验生成对抗网络的人脸超分辨率重建方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
Non-Patent Citations (1)
Title |
---|
TERO KARRAS ET AL: "PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION", PUBLISHED AS A CONFERENCE PAPER AT ICLR 2018, pages 7 - 8 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024164596A1 (zh) * | 2023-02-09 | 2024-08-15 | 腾讯科技(深圳)有限公司 | 面部建模模型的训练方法、建模方法、装置、电子设备、存储介质及程序产品 |
CN116781912A (zh) * | 2023-08-17 | 2023-09-19 | 瀚博半导体(上海)有限公司 | 视频传输方法、装置、计算机设备及计算机可读存储介质 |
CN116781912B (zh) * | 2023-08-17 | 2023-11-14 | 瀚博半导体(上海)有限公司 | 视频传输方法、装置、计算机设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113542759B (zh) | 2024-05-10 |
DE102021109501A1 (de) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11775829B2 (en) | Generative adversarial neural network assisted video reconstruction | |
US11625613B2 (en) | Generative adversarial neural network assisted compression and broadcast | |
US11861890B2 (en) | Style-based architecture for generative neural networks | |
US11620521B2 (en) | Smoothing regularization for a generative neural network | |
CN113542758B (zh) | 生成对抗神经网络辅助的视频压缩和广播 | |
CN113542759B (zh) | 生成对抗神经网络辅助的视频重建 | |
CN113762461B (zh) | 使用可逆增强算子采用有限数据训练神经网络 | |
US11954862B2 (en) | Joint estimation of heart rate and respiratory rate using neural networks | |
DE102021109050A1 (de) | Durch ein neuronales generative adversarial netzwerk unterstützte videokompression und -übertragung | |
US20240104842A1 (en) | Encoder-based approach for inferring a three-dimensional representation from an image | |
Lu et al. | 3D real-time human reconstruction with a single RGBD camera | |
CN113408694B (zh) | 用于生成式神经网络的权重解调 | |
CN118096961B (zh) | 图像处理方法和装置 | |
CN114529443A (zh) | 以目标采样率的自适应采样 | |
US20230298243A1 (en) | 3d digital avatar generation from a single or few portrait images | |
CN115631285B (zh) | 基于统一驱动的人脸渲染方法、装置、设备及存储介质 | |
US11605001B2 (en) | Weight demodulation for a generative neural network | |
Quan et al. | Facial animation using CycleGAN | |
US20240371072A1 (en) | Stochastic texture filtering | |
US20240112308A1 (en) | Joint neural denoising of surfaces and volumes | |
Cho | A 3D-aware conditional diffusion model for gaze redirection | |
CN115496197A (zh) | 减少混叠的生成神经网络 | |
CN115767091A (zh) | 使用神经网络进行基于熵的预滤波用于流式传输应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |