CN111489285A - 利用循环gan将真实图像变换成虚拟图像的方法及装置 - Google Patents

利用循环gan将真实图像变换成虚拟图像的方法及装置 Download PDF

Info

Publication number
CN111489285A
CN111489285A CN202010017701.1A CN202010017701A CN111489285A CN 111489285 A CN111489285 A CN 111489285A CN 202010017701 A CN202010017701 A CN 202010017701A CN 111489285 A CN111489285 A CN 111489285A
Authority
CN
China
Prior art keywords
image
learning
virtual
real
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010017701.1A
Other languages
English (en)
Other versions
CN111489285B (zh
Inventor
金桂贤
金镕重
金寅洙
金鹤京
南云铉
夫硕焄
成明哲
吕东勋
柳宇宙
张泰雄
郑景中
诸泓模
赵浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of CN111489285A publication Critical patent/CN111489285A/zh
Application granted granted Critical
Publication of CN111489285B publication Critical patent/CN111489285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computer Graphics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Computer Hardware Design (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及利用循环GAN将真实图像变换成虚拟图像的方法及装置,具体地涉及学习利用可应用于域自适应的循环GAN来将真实图像变换成虚拟图像的运行时输入变换的方法,该方法在虚拟行驶环境中执行,该方法可减少虚拟与现实之间的差异和注释费用,该方法包括如下步骤:(a)(i)使第1变换器将第1图像变换成第2图像,(ii)(ii‑1)使第1判别器生成第1_1结果,(ii‑2)使第2变换器将第2图像变换成具备与真实图像相同或类似的特性的第3图像;(b)(i)使第2变换器将第4图像变换成第5图像,(ii)(ii‑1)使第2判别器生成第2_1结果,(ii‑2)使第1变换器将第5图像变换成第6图像;及(c)算出损失。

Description

利用循环GAN将真实图像变换成虚拟图像的方法及装置
技术领域
本发明涉及使用于自动驾驶汽车、虚拟行驶等的学习方法及学习装置、利用该学习方法及学习装置的测试方法及测试装置,更具体地,涉及利用循环GAN而将真实世界上的真实图像变换成虚拟世界上的虚拟图像的学习方法及学习装置、利用该学习方法及学习装置的测试方法及测试装置。
背景技术
深度卷积神经网络(Deep Convolution Neural Networks;Deep CNNs)是在深度学习领域中发生的惊人的发展核心。CNN虽然在90年代已被用来解决文字识别问题,但它之所以能够像现在这样被广泛使用,还要归功于近年来的研究结果。这样的CNN在2012年的ImageNet图像分类比赛中击败其他竞争者而获得冠军。之后,卷积神经网络在机器学习(Machine Learning)领域中成为非常有用的工具。
近年来CNN在自动驾驶汽车领域中非常广泛地得到使用。在自动驾驶汽车领域中使用时,CNN从附着于汽车的照相机获得影像并执行探测车道等的作用。为此,CNN利用现实世界上的训练图像及与此对应的GT(Ground truth)来学习参数。这样的传统的接近方法的缺点在于:在获得现实世界上的训练图像并生成与此对应的GT时,其不能由被编程的计算机自动地处理,需要人的投入,因此在训练过程中需要较多的费用和时间。
作为训练CNN的对策,提出了利用通过被编程的计算机而模拟的虚拟世界上的虚拟图像的方法。此时,虚拟图像和与此对应的GT可通过被编程的计算机而获得,与传统的接近方法相比,在训练过程中显著地减少费用和时间。
但是,在该情况下存在如下缺点:CNN利用虚拟图像而学习参数,因此在检测关于具备与虚拟图像的特性稍微不同的特性的真实世界的真实图像内所包含的对象时,作业性能下降。
发明内容
发明要解决的课题
本发明的目的在于解决上述问题。
本发明的另一目的在于提供一种如下的方法:通过利用循环GAN(Cycle Generative Adversarial Network)而学习的变换器将真实图像变换成虚拟图像,从而使利用虚拟世界上的虚拟图像而学习的对象检测器检测真实世界上的真实图像所包含的对象。
用于解决课题的手段
用于达到如上述的本发明的目的并实现后述的本发明的特征性效果的本发明的特征性结构如下。
根据本发明的一个方式,一种学习方法,利用循环GAN(Cycle Generative Adversarial Network)而将真实世界上的至少一个真实图像(Real Image)变换成虚拟世界上的至少一个虚拟图像(Virtual Image),其特征在于,包括如下步骤:(a)当获得作为上述真实图像之一的至少一个第1图像时,学习装置,(i)使第1变换器(Transformer)将上述第1图像变换成具备与上述虚拟图像相同或类似的至少一个特性(Characteristic)的至少一个第2图像,(ii)(ii-1)使第1判别器(Discriminator)判断上述第2图像是初级虚拟图像(Primary Virtual Image)之一还是次级虚拟图像(Secondary Virtual Image)之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,上述次级虚拟图像是从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,(ii-2)使第2变换器将上述第2图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第3图像;(b)当获得作为上述虚拟图像之一的至少一个第4图像时,上述学习装置,(i)使上述第2变换器将上述第4图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第5图像,(ii)(ii-1)使第2判别器判断上述第5图像是初级真实图像(Primary Real Image)之一还是次级真实图像(Secondary Real Image)之一,从而生成第2_1结果,上述初级真实图像是并非从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,上述次级真实图像是从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,(ii-2)使上述第1变换器将上述第5图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第6图像;及(c)上述学习装置参照上述第1图像、上述第2图像、上述第3图像、上述第4图像、上述第5图像、上述第6图像、上述第1_1结果及上述第2_1结果中的至少一部分来算出至少一个损失,从而学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分。
在一个实施例中,在上述(c)步骤中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)
上述至少一个损失所包含的变换器损失(Transformer Loss)根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β为用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数。
在一个实施例中,其特征在于,在上述(c)步骤中,当获得(i)通过检测输入到自己的图像所包含的至少一个虚拟对象的虚拟对象检测器而生成的、关于上述第2图像及上述第6图像中的至少一部分的虚拟对象检测结果及(ii)与此对应的GT时,上述学习装置使损失单元(Loss Unit)进一步参照上述虚拟对象检测结果而生成上述至少一个损失的至少一部分。
在一个实施例中,其特征在于,在上述(c)步骤中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)+argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))
上述至少一个损失所包含的变换器损失(Transformer Loss)根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数,
argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))表示与上述虚拟对象检测结果对应的上述变换器损失的部分损失(Partial Loss),λ1和λ2是用于调整各个OD(G(I))及OD(G(F(X)))的各个加权值的常数。
在一个实施例中,其特征在于,在上述(c)步骤中,
Figure BDA0002359528230000031
上述损失所包含的上述第1判别器用FD损失根据上述式而被定义,VI表示上述虚拟图像中的任意虚拟图像,DG(VI)表示关于上述任意虚拟图像的上述第1判别器的判断内容即第1_2结果,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果。
在一个实施例中,其特征在于,在上述(c)步骤中,
Figure BDA0002359528230000041
上述损失所包含的上述第2判别器用SD损失根据上述式而被定义,RI表示上述真实图像中的任意真实图像,DF(RI)表示关于上述任意真实图像的上述第2判别器的判断内容即第2_2结果,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果。
在一个实施例中,其特征在于,上述第1变换器及上述第2变换器分别包括至少一个编码层及至少一个解码层中的至少一部分。
在一个实施例中,其特征在于,彼此关联地学习(i)(i-1)作为上述第1变换器所包含的第1编码层中的至少一部分的至少一个第1特定编码层及(i-2)作为上述第1变换器所包含的第1解码层中的至少一部分的至少一个第1特定解码层所包含的第1参数中的至少一部分与(ii)(ii-1)作为上述第2变换器所包含的第2编码层中的至少一部分的至少一个第2特定编码层及(ii-2)作为上述第2变换器所包含的第2解码层中的至少一部分的至少一个第2特定解码层所包含的第2参数中的至少一部分,从而使上述第1参数与上述第2参数之间的相关性超过临界值。
在一个实施例中,其特征在于,上述第1特定编码层及上述第1特定解码层以从位于上述第1编码层与上述第1解码层之间的第1隐空间(Latent Space)隔开的至少一个第1距离(Distance)小于第1临界距离的方式分别从上述第1编码层及上述第1解码层中被选择,上述第2特定编码层及上述第2特定解码层以从位于上述第2编码层与上述第2解码层之间的第2隐空间隔开的至少一个第2距离小于第2临界距离的方式分别从上述第1解码层及上述第2解码层中被选择。
根据本发明的另一方式,一种测试方法,利用循环GAN(CycleGenerative Adversarial Network)而将真实世界上的至少一个真实图像(Real Image)变换成虚拟世界上的至少一个虚拟图像(Virtual Image),其特征在于,(1)学习装置,(i)使第1变换器(Transformer)将作为学习用真实图像之一的至少一个学习用第1图像变换成具备与至少一个学习用虚拟图像相同或类似的至少一个特性(Characteristic)的至少一个学习用第2图像,(ii)(ii-1)使第1判别器(Discriminator)判断上述学习用第2图像是初级虚拟图像(Primary VirtualImage)之一还是次级虚拟图像(Secondary VirtualImage)之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,上述次级虚拟图像是从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,(ii-2)使第2变换器将上述学习用第2图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第3图像,(2)上述学习装置,(i)使上述第2变换器将作为上述学习用虚拟图像之一的至少一个学习用第4图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第5图像,(ii)(ii-1)使第2判别器判断上述学习用第5图像是初级真实图像(Primary RealImage)之一还是次级真实图像(Secondary Real Image)之一,从而生成第2_1结果,上述初级真实图像是并非从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,上述次级真实图像是从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,(ii-2)使上述第1变换器将上述学习用第5图像变换成具备与上述学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第6图像,(3)上述学习装置参照上述学习用第1图像、上述学习用第2图像、上述学习用第3图像、上述学习用第4图像、上述学习用第5图像、上述学习用第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而在学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分的状态下,测试装置使上述第1变换器获得作为上述测试用真实图像之一的至少一个测试图像,将上述测试图像变换成具备与上述测试用虚拟图像相同或类似的至少一个特性的至少一个变换的测试图像。
在一个实施例中,其特征在于,上述变换的测试图像是为了对上述虚拟对象检测器所包含的参数进行微调(Fine-Tuning)而使用的。
在一个实施例中,其特征在于,上述测试图像是通过自动驾驶车辆所包含的照相机而获得的上述测试用真实图像之一,上述自动驾驶汽车所包含的虚拟对象检测器(Virtual Object Detector)检测上述变换的测试图像所包含的至少一个对象而协助上述真实世界中的上述自动驾驶车辆的行驶。
根据本发明的又一方式,一种学习装置,其利用循环GAN(Cycle Generative Adversarial Network)而将真实世界上的至少一个真实图像(Real Image)变换成虚拟世界上的至少一个虚拟图像(Virtual Image),其特征在于,其包括:至少一个存储器,其存储指令;及至少一个处理器,其执行用于执行如下处理的上述指令:(I)当获得作为上述真实图像之一的至少一个第1图像时,(i)使第1变换器(Transformer)将上述第1图像变换成具备与上述虚拟图像相同或类似的至少一个特性(Characteristic)的至少一个第2图像,(ii)(ii-1)使第1判别器(Discriminator)判断上述第2图像是初级虚拟图像(Primary VirtualImage)之一还是次级虚拟图像(Secondary Virtual Image)之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,上述次级虚拟图像是从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,(ii-2)使第2变换器将上述第2图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第3图像;(II)当获得作为上述虚拟图像之一的至少一个第4图像时,(i)使上述第2变换器将上述第4图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第5图像,(ii)(ii-1)使第2判别器判断上述第5图像是初级真实图像(Primary RealImage)之一还是次级真实图像(Secondary Real Image)之一,从而生成第2_1结果,上述初级真实图像是并非从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,上述次级真实图像是从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,(ii-2)使上述第1变换器将上述第5图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第6图像;及(III)参照上述第1图像、上述第2图像、上述第3图像、上述第4图像、上述第5图像、上述第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分。
在一个实施例中,其特征在于,在上述(III)处理中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)
上述至少一个损失所包含的变换器损失(Transformer Loss)根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数。
在一个实施例中,其特征在于,在上述(III)处理中,(i)当获得通过检测输入到自己的图像所包含的至少一个虚拟对象的虚拟对象检测器而生成的关于上述第2图像及上述第6图像中的至少一部分的虚拟对象检测结果及(ii)与此对应的GT时,上述处理器使损失单元(Loss Unit)进一步参照上述虚拟对象检测结果而生成上述至少一个损失的至少一部分。
在一个实施例中,其特征在于,在上述(III)处理中,
G*=argmin(log(1-DG(G(I))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)+argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))
上述至少一个损失所包含的变换器损失(Transformer Loss)根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数,argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))表示与上述虚拟对象检测结果对应的上述变换器损失的部分损失(Partial Loss),λ1和λ2是用于调整各个OD(G(I))及OD(G(F(X)))的各个加权值的常数。
在一个实施例中,其特征在于,在上述(III)处理中,
Figure BDA0002359528230000071
上述损失所包含的上述第1判别器用FD损失根据上述式而被定义,VI表示上述虚拟图像中的任意虚拟图像,DG(VI)表示关于上述任意虚拟图像的上述第1判别器的判断内容即第1_2结果,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果。
在一个实施例中,其特征在于,在上述(III)处理中,
Figure BDA0002359528230000072
上述损失所包含的上述第2判别器用SD损失根据上述式而被定义,RI表示上述真实图像中的任意真实图像,DF(RI)表示关于上述任意真实图像的上述第2判别器的判断内容即第2_2结果,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果。
在一个实施例中,其特征在于,上述第1变换器及上述第2变换器分别包含至少一个编码层及至少一个解码层中的至少一部分。
在一个实施例中,其特征在于,彼此关联地进行学习(i)(i-1)作为上述第1变换器所包含的第1编码层中的至少一部分的至少一个第1特定编码层及(i-2)作为上述第1变换器所包含的第1解码层中的至少一部分的至少一个第1特定解码层所包含的第1参数中的至少一部分与(ii)(ii-1)作为上述第2变换器所包含的第2编码层中的至少一部分的至少一个第2特定编码层及(ii-2)作为上述第2变换器所包含的第2解码层中的至少一部分的至少一个第2特定解码层所包含的第2参数中的至少一部分,从而使上述第1参数与上述第2参数之间的相关性超过临界值。
在一个实施例中,其特征在于,上述第1特定编码层及上述第1特定解码层以从位于上述第1编码层与上述第1解码层之间的第1隐空间(Latent Space)隔开的至少一个第1距离(Distance)小于第1临界距离的方式分别从上述第1编码层及上述第1解码层中被选择,上述第2特定编码层及上述第2特定解码层以从位于上述第2编码层与上述第2解码层之间的第2隐空间隔开的至少一个第2距离小于第2临界距离的方式分别从上述第1解码层及上述第2解码层中被选择。
根据本发明的又一方式,一种测试装置,其利用循环GAN(Cycle Generative Adversarial Network)而将真实世界上的至少一个真实图像(Real Image)变换成虚拟世界上的至少一个虚拟图像(Virtual Image),其特征在于,其包括:至少一个存储器,其存储指令;及至少一个处理器,其执行用于执行如下处理的上述指令:(1)学习装置,(i)使第1变换器(Transformer)将作为学习用真实图像之一的至少一个学习用第1图像变换成具备与至少一个学习用虚拟图像相同或类似的至少一个特性(Characteristic)的至少一个学习用第2图像,(ii)(ii-1)使第1判别器(Discriminator)判断上述学习用第2图像是初级虚拟图像(Primary Virtual Image)之一还是次级虚拟图像(Secondary Virtu al Image)之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,上述次级虚拟图像是从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,(ii-2)使第2变换器将上述学习用第2图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第3图像,(2)上述学习装置,(i)使上述第2变换器将作为上述学习用虚拟图像之一的至少一个学习用第4图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第5图像,(ii)(ii-1)使第2判别器判断上述学习用第5图像是初级真实图像(PrimaryReal Image)之一还是次级真实图像(Secondary Real Image)之一,从而生成第2_1结果,上述初级真实图像是并非从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,上述次级真实图像是从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,(ii-2)使上述第1变换器将上述学习用第5图像变换成具备与上述学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第6图像,(3)上述学习装置参照上述学习用第1图像、上述学习用第2图像、上述学习用第3图像、上述学习用第4图像、上述学习用第5图像、上述学习用第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而在学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分的状态下,使上述第1变换器获得作为上述测试用真实图像之一的至少一个测试图像,将上述测试图像变换成具备与上述测试用虚拟图像相同或类似的至少一个特性的至少一个变换的测试图像。
在一个实施例中,其特征在于,上述变换的测试图像是为了对上述虚拟对象检测器所包含的参数进行微调(Fine-Tuning)而使用的。
在一个实施例中,其特征在于,上述测试图像是通过自动驾驶车辆所包含的照相机而获得的上述测试用真实图像之一,上述自动驾驶汽车所包含的虚拟对象检测器(Virtual Object Detector)检测上述变换的测试图像所包含的至少一个对象而协助上述真实世界中的上述自动驾驶车辆的行驶。
此外,还提供用于记录执行本发明的方法的计算机程序的计算机可读取的记录介质。
发明效果
本发明通过可应用于域自适应的循环GAN(Cycle Generative AdversarialNetwork)而将RGB形式的训练图像集变换成非RGB形式,从而具有缓和非RGB形式的训练图像集中出现的问题的效果。
附图说明
为了对本发明的实施例进行说明而所附的下面的附图仅为本发明的实施例中的一部分,具有本发明所属技术领域的普通知识的人(以下,称为“本领域技术人员”)在无需创作性劳动的情况下,可基于该附图而获得其他的图。
图1是概略性地示出根据本发明的一个实施例而执行利用循环GAN(Cycle Generative Adversarial Network)来将真实图像变换成虚拟图像的学习方法的学习装置的图。
图2是概略性地示出根据本发明的一个实施例而利用循环GAN来将真实图像变换成虚拟图像的第1变换器及第2变换器的图。
图3是概略性地示出根据本发明的一个实施例而利用循环GAN来将真实图像变换成虚拟图像的学习装置的图。
图4是概略性地示出根据本发明的一个实施例而利用循环GAN来算出变换器损失(Transformer Loss)所包含的部分损失(Partial Loss)的处理的图。
具体实施方式
在后述的对本发明的详细的说明中,参照例示的实施本发明的特定实施例的附图。在此对这些实施例进行详细说明,以供本领域技术人员充分地实施本发明。虽然本发明的各种实施例彼此不同,但并非是排他性的。例如,在此记载的特定形状、结构及特性在一个实施例中在未脱离本发明的精神及范围的情况下可体现为另一个实施例。另外,关于各个公开的实施例内的个别构成要素的位置或配置,在不脱离本发明的精神及范围的情况下可进行变更。因此,后述的详细的说明并非具备限定性的意思,关于本发明的范围,确切地来讲应根据与其权利要求所主张的内容均等的所有范围及所附权利要求来限定。附图中的类似的符号在各个侧面上指相同或类似的功能。
另外,在本发明的详细的说明及权利要求中,“包含”这一用语及它们的变形并非表示排除其他技术特征、附加物、构成要素或步骤。对于本领域技术人员来讲,关于本发明的另一目的、优点及特性,可根据本说明书来理解其一部分,并通过实施本发明来理解另一部分。下面的例示及附图仅为示例,并非对本发明进行限定。
本发明中提及的各种图像可以包括道路相关图像,在该情况下,可假设在道路环境中会出现的物体(如汽车、人、动物、植物、物件、建筑、其他障碍物),但并非仅限于此,在本发明中提及的各种图像也可以是与道路无关的图像(如关于非柏油路、小胡同、空地、室内的图像),在该情况下,可假设在非柏油路、小胡同、空地、室内环境中出现的物体(如汽车、人、动物、植物、物件、建筑、其他障碍物),但不仅限于此。
下面,参照附图,对本发明的优选的实施例进行详细说明,以供本领域技术人员能够容易地实施本发明。
图1是概略性地示出根据本发明的一个实施例而执行利用循环GAN(Cycle Generative Adversarial Network:循环生成对抗网络)来将真实图像变换成虚拟图像的学习方法的学习装置的图。
参照图1,学习装置100包括详细后述的构成要素即第1变换器130、第1判别器140、第2变换器150、第2判别器160及虚拟对象检测器170。第1变换器130、第1判别器140、第2变换器150、第2判别器160及虚拟对象检测器170的输入输出及运算过程分别由通信部110及处理器120而实现。但是,在图1中省略了通信部110及处理器120的具体的连接关系。此时,存储器115可以是存储有后述的多个指令的状态,处理器120被设定为执行存储于存储器115的指令,处理器120执行后述的处理,从而执行本发明的处理。在此虽然记载了这样的学习装置100,但并非排除学习装置100包括将用于实施本发明的处理器、存储器、介质或其他计算要素综合的形态的综合处理器(Integrated Processor)的情况。
此时,第1变换器130及第2变换器150能够变换分别输入到自己的图像的特性。具体地,第1变换器130能够将作为真实世界上的真实图像之一的至少一个第1输入图像变换成具备与虚拟世界上的虚拟图像相同或类似的至少一个特性的至少一个第1输出图像(Output Image)。并且,第2变换器150能够将作为虚拟图像之一的至少一个第2输入图像变换成具备与真实图像相同或类似的至少一个特性的至少一个第2输出图像。
此时,虚拟图像的至少一个特性是指,(i)色度高,(ii)对比度(Contrast)高,(iii)以某种程度省略了对象的详细的细节,(iv)光线的相对单纯且非现实的移动路径。关于这样的虚拟图像的例示,可在伟大的旅行(Gran Turismo)系列、极限竞速(Forza Motorsport)系列、GTA系列等的开放式世界游戏(Open World Game)中确认。但是本发明的范围不限于此。
真实图像的至少一个特性是指,与此相反地,(i)色度低,(ii)对比度低,(iii)充分地反映了对象的详细的细节,(iv)光线相对地精致且现实的移动路径。但是本发明不限于此。下面,参照图2,对例示性的第1变换器130及第2变换器150的结构进行说明。
图2是概略性地示出根据本发明的一个实施例而利用循环GAN来将真实图像变换成虚拟图像的第1变换器及第2变换器的图。
第1变换器130及第2变换器150包括至少一个编码层及至少一个解码层中的至少一部分。编码层对所输入的图像而至少应用一次卷积运算而生成至少一个特征图(FeatureMap),解码层对上述特征图至少应用一次解卷积运算来生成具备变换的特性的图像。这样,各个变换器分别向将真实图像变换成具备与虚拟图像相同或类似的特性的图像的方向或将虚拟图像变换成具备与真实图像相同或类似的特性的图像的方向变换。第1判别器140及第2判别器160判断输入到各个判别器的输入图像是具备调制的特性的图像还是具备未调制的特性的图像。具体地,第1判别器140判断输入到自己的输入图像为初级虚拟图像之一还是次级虚拟图像之一,从而在前者的情况下可以输出1,在后者的情况下可以输出0。此时,初级虚拟图像是并非从真实图像的至少一部分变换的虚拟图像的至少一部分,次级虚拟图像是从真实图像的至少一部分变换的虚拟图像的至少一部分。另外,第2判别器160判断输入到自己的输入图像是初级真实图像之一还是次级真实图像之一,从而在前者的情况下可以输出1,在后者的情况下可以输出0。此时,初级真实图像是并非从虚拟图像的至少一部分变换的真实图像的至少一部分,次级真实图像是从虚拟图像的至少一部分变换的真实图像的至少一部分。第1判别器140及第2判别器160也可以由CNN构成,但本发明不限于此。
另外,虚拟对象检测器170可以由至少一个CNN构成,具体地,可以包括卷积层及FC层。卷积层对输入到自己的输入图像应用卷积运算来生成特征图,FC层对特征图应用边框回归(Bounding Box Regression)来检测至少一个虚拟对象。当然,虚拟对象检测器170不限于这样的结构。在一个实施例中,虚拟对象检测器170是利用作为虚拟图像中的至少一部分的训练图像及对此的GT的设置而已完成学习的状态。
以上,对根据本发明的一个实施例而执行利用循环GAN来将真实世界上的至少一个真实图像变换成虚拟世界上的至少一个虚拟图像的学习方法的学习装置100的结构进行了说明,下面参照图3,对本发明的学习方法进行具体说明。
图3是概略性地示出根据本发明的一个实施例而利用循环GAN来将真实图像变换成虚拟图像的学习装置的图。
参照图3可确认到第1变换器130、第1判别器140、第2变换器150、第2判别器160及虚拟对象检测器170进行动作的概括性的方式。大体存在两个处理,将此定义为正向处理101及反向处理102。
在正向处理101中,作为真实图像之一的至少一个第1图像通过第1变换器130而变换成具备与虚拟图像相同或类似的至少一个特性的至少一个第2图像,然后通过第1判别器140而生成判断第2图像的结果即第1_1结果,第2图像通过第2变换器150而变换成具备与真实图像相同或类似的至少一个特性的至少一个第3图像。可并行地执行生成第1_1结果的处理和将第2图像变换成第3图像的处理或也可以先执行任一个处理。
在反向处理102中,作为虚拟图像之一的至少一个第4图像通过第2变换器150而变换成具备与真实图像相同或类似的至少一个特性的至少一个第5图像,然后通过第2判别器160而生成判断第5图像的结果即第2_1结果,第5图像通过第1变换器130而变换成具备与虚拟图像相同或类似的至少一个特性的至少一个第6图像。可并行地执行生成第2_1结果的处理和将第5图像变换成第6图像的处理或也可以先执行任一个处理。此外,先执行正向处理101和反向处理102中的哪一个处理也无妨,也可以并行地执行。
之所以通过这样的处理,是为了算出用于更好地学习第1变换器130、第1判别器140、第2变换器150及第2判别器160的至少一个损失(loss)。为了对此进行具体说明,下面对算出用于学习学习装置100的各个构成要素的损失的处理进行说明。
首先,关于应用于第1变换器130及第2变换器150的至少一个变换器损失说明如下。
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)
上述至少一个损失所包含的变换器损失可根据上述式而被判断,I表示第1图像,G(I)表示第2图像,DG(G(I))表示第1_1结果,F(G(I))表示第3图像,X表示第4图像,F(X)表示第5图像,DF(F(X))表示第2_1结果,G(F(X))表示第6图像,γ及β可以是分别调整|I-F(G(I))|及|X-G(F(X))|的加权值的常数。
在用于进行上述变换的第1损失中对argmin的实际参数(Argument)的项(Term)进行观察可知,log(1-DG(G(I)))是用于使第1变换器130向欺瞒第1判别器140的方向学习的项。即,argmin函数引导作为结果而得出的最终值变小,因此log(1-DG(G(I)))项也变小。但是log函数是递增函数,因此引导log内的1-DG(G(I))变小。即,DG(G(I))增加。第1判别器140对其特性不变的图像输出1,因此本项用于使第1变换器130向欺瞒第1判别器140的方向学习。
第二个项即γ|I-F(G(I))|可以使变换的图像与原始图像类似,也就是使第2图像与第1图像类似。当第1变换器130单纯地仅向欺瞒第1判别器140的方向学习时,可能不能存储图像内的特征(Feature),因此设置了减少与原始图像之间的差异的项。即,其目的在于减少第1图像与第3图像之间的差异即I-F(G(I))。在此,差异是指,第1图像内的各个值和与此对应的第3图像内的各个值之间的差。因为该第二个项,存在在正向处理101中将第2图像变换成第3图像的部分。
第三个项和第四个项分别执行与第一个项和第二个项的作用类似的作用,区别在于第三个项和第四个项是用于第2变换器150的部分。只有学习好第2变换器150,才能通过第二个项学习好第1变换器130。第三个项和第四个项中使用的值可以在反向处理102中获得。关于第三个项和第四个项的其他的具体事项与第一个项及第二个项大同小异,因此本领域技术人员通过上述记载可容易导出,因此省略说明。
此时,如上述,包含在式中的γ及β分别是用于调节|I-F(G(I))|及|X-G(F(X))|的加权值的常数,当第二个项和第四个项在公式中反映过多,则变换后的图像变模糊,当在公式中反应过少时,则变换后的图像无法反映原始图像的内容。因此,程序员调节γ及β来调节|I-F(G(I))|及|X-G(F(X))|的影响力。
变换器损失还可以包括与通过虚拟对象检测器170而生成的虚拟对象检测结果对应的部分损失。将此用式表达如下。
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))
+β|X-G(F(X))|)+argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))
与虚拟对象检测结果对应的部分损失表达为argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))项。在此,λ1和λ2是分别调节OD(G(I))及OD(G(F(X)))的加权值的常数。对此,将参照图4进行更具体的说明。
图4是概略性地示出根据本发明的一个实施例而利用循环GAN来算出变换器损失所包含的部分损失的处理的图。
参照图4可观察到利用关于通过虚拟对象检测器170而生成的第2图像及第6图像的虚拟对象检测结果来生成部分损失的特定处理。为了便于说明,首先对与第2图像对应的特定处理的第1部分进行说明。
虚拟对象检测器170检测第2图像所包含的对象而生成包括与各个对象对应的类别(class)的概率的各个柔性最大值。与第2图像所包含的特定对象对应的部分损失的特定部分参照特定柔性最大值所包含的至少一个第1概率和至少一个第2概率而生成。此时,第1概率表示对象类别(例如,步行者类别或汽车类别)所包含的特定对象的概率,第2概率表示背景类别(例如,天空类别)所包含的特定对象的概率。作为一例,部分损失的特定部分可选择为将(i)第1概率中最大的概率和(ii)从1减去第2概率的值相加的值变大的方向。对此,可通过如下式来表示。
Figure BDA0002359528230000151
在上述式中,
Figure BDA0002359528230000152
为在i表示特定对象的数量的情况下,表示第1概率中最大的概率值。并且
Figure BDA0002359528230000153
为在0表示背景类别的情况下,表示第2概率与1之间的差异。根据如上述的式,执行生成与第2图像对应的部分损失的特定处理的第1部分。关于第6图像,与上述第1部分类似地,可执行生成与第6图像对应的部分损失的特定处理的第2部分。
部分损失在变换处理之后也为了保存图像内的对象的细节而包含于变换器损失中。上述公式的第二个和第四个项及部分损失执行互补的作用。具体地,如上所述,第二个项及第四个项使变换的图像形成为和与此对应的原始图像类似,但这仅仅是使图像大概类似,不能执行使原始图像所包含的对象的细节选择性地、优先保存的作用。相反地,部分损失还保存在将原始图像所包含的对象变换的图像,但可将原始图像中不存在的新的对象生成在变换的图像中。但是,能够防止通过保持原始图像与变换的图像之间的类似度的第二个项及第四个项而生成不希望的新的对象的副作用。因此,通过追加部分损失而能够将第1变换器130大幅地优化。
以上,对变换器损失进行了说明,下面对算出应用于各个判别器的损失的处理进行说明。
Figure BDA0002359528230000154
第1判别器140用损失即FD损失根据上述式而被定义。此时,VI表示虚拟图像中的任一图像,DG(VI)表示从第1判别器生成的、判断上述任意虚拟图像的结果即第1_2结果,G(I)表示第2图像,DG(G(I))表示第1_1结果。argmax以整体结果值变大的方式进行引导,将DG(VI)输出为1,将DG(G(I))输出为0。因此,第1判别器140能够准确地判断所输入的图像的特性与之前相比是否变换。在图4中仅图示了输入第2图像的处理,但并非仅将第2图像这样的调制了特性的图像限定为输入图像,也可以输入作为虚拟图像之一的任一图像。因此,将调制了特性的图像和未调制特性的图像区分而进行学习。
Figure BDA0002359528230000161
可根据上述式而定义关于第2判别器的损失即SD损失。此时,RI表示真实图像中的任一图像,DF(RI)表示从第2判别器生成的、对上述任意真实图像进行判断的结果即第2_2结果、F(X)表示上述第5图像,DF(F(X))表示第2_1结果。与FD损失同样地,由此第2判别器160能够准确地判断所输入的图像的特性与之前相比是否被调制。另外,能够输入作为真实图像之一的任一图像来使用于学习。
当算出包括上述变换器损失、关于第1判别器的FD损失及关于第2判别器的SD损失的至少一个损失时,学习装置100可学习第1变换器130、第1判别器140、第2变换器150、第2判别器160的参数的至少一部分。
在学习过程中,在一般情况下,第1变换器130及第2变换器150所包含的编码层及解码层彼此无相关地单独学习。与一般的实施例不同地,关于第1变换器130及第2变换器150所包含的层可彼此关联地进行学习。下面,对这样的学习处理进行说明。
具体地,第1参数可包含于(i)作为第1变换器130所包含的第1编码层中的至少一部分的至少一个第1特定编码层及(ii)作为第1变换器130所包含的第1解码层中的至少一部分的至少一个第1特定解码层。另外,第2参数可包含于(i)作为上述第2变换器150所包含的第2编码层中的至少一部分的至少一个第2特定编码层及(ii)作为第2变换器150所包含的第2解码层中的至少一部分的至少一个第2特定解码层。
并且,第1参数的至少一部分和第2参数的至少一部分以它们之间的相关性为规定临界值以上的方式彼此关联地进行学习。此时,相关性是指第1参数所包含的值与第2参数中与此相同的位置的值之间的比率。在一个实施例中,第1参数的至少一部分以和与此对应的第2参数相同的状态来学习。
此时,第1特定编码层及第1特定解码层以从第1隐空间(Latent Space)离开的至少一个第1距离(Distance)小于第1临界距离的方式分别从第1编码层及第1解码层中被选择。在此,第1隐空间是位于第1编码层与第1解码层之间的通过第1编码层而生成的第1特征图所在的位置。
第2特定编码层及第2特定解码层以使从第2隐空间离开的至少一个第2距离小于第2临界距离的方式分别从第2编码层及第2解码层中被选择。
靠近隐空间的层内的参数包含较多的关于输入到变换器的图像的内容的信息,这样的接近法能够将变换处理优化,由此将从真实图像和虚拟图像的全部中获得的稳健性信息(Robust Information)反映到相关参数。
通过这样的学习,第1变换器130在变换图像的特性的同时能够保持图像的内容与原始图像相同或类似。
以上,对学习过程进行了说明,下面对完成学习之后的测试过程进行说明。
作为参考,在下面的说明中为了避免混淆,对与以上说明的学习处理相关的用语追加“学习用,”对与测试处理相关的用语追加“测试用”。
(1)当学习装置100获得作为真实图像之一的至少一个学习用第1图像时,(i)使第1变换器130将作为学习用真实图像之一的至少一个学习用第1图像变换成具备与至少一个学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第2图像,(ii)(ii-1)使第1判别器140判断学习用第2图像是初级虚拟图像之一还是次级虚拟图像之一,从而生成第1_1结果,初级虚拟图像是并非从学习用真实图像的至少一部分变换的学习用虚拟图像的至少一部分,次级虚拟图像是从学习用真实图像的至少一部分变换的学习用虚拟图像的至少一部分,(ii-2)使第2变换器150将学习用第2图像变换成具备与学习用真实图像相同或类似的至少一个特性的至少一个学习用第3图像,(2)由学习装置100(i)使第2变换器150将作为学习用虚拟图像之一的至少一个学习用第4图像变换成具备与学习用真实图像相同或类似的至少一个特性的至少一个学习用第5图像,(ii)(ii-1)使第2判别器140判断学习用第5图像是初级真实图像(Primary Real Image)之一还是次级真实图像(Secondary RealImage)之一,从而生成第2_1结果,初级真实图像是并非从学习用虚拟图像的至少一部分变换的学习用真实图像的至少一部分,次级真实图像是从学习用虚拟图像的至少一部分变换的学习用真实图像的至少一部分,(ii-2)使第1变换器将学习用第5图像变换成具备与学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第6图像,(3)使学习装置100参照学习用第1图像、学习用第2图像、学习用第3图像、学习用第4图像、学习用第5图像、学习用第6图像、第1_1结果及第2_1结果中的至少一部分而算出至少一个损失,从而在学习了第1变换器、第2变换器、第1判别器及第2判别器的参数中的至少一部分的状态下,测试装置使第1变换器130获得作为测试用真实图像之一的至少一个测试图像。之后,测试装置使第1变换器130将测试图像变换成具备与测试用虚拟图像相同或类似的至少一个特性的至少一个变换的测试图像。
测试装置除了第2变换器150、第1判别器140及第2判别器160,包括图1所示的学习装置100的结构。
但是,虚拟对象检测器170在第1变换器130的学习处理及测试处理之前已经进行了学习,但可以利用微调用图像及对此的GT来对虚拟对象检测器170所包含的参数进行微调。微调处理与第1变换器130的学习处理类似,因此省略具体的说明。但是,这并非执行本发明时所必须的要件。
之后,包括虚拟对象检测器170及第1变换器130的测试装置可用于协助自动驾驶车辆的行驶。具体地,通过自动驾驶车辆所包含的照相机而获得作为真实图像的至少一部分的测试图像时,测试装置100使第1变换器130将测试图像变换成变换的测试图像,使虚拟对象检测器170检测具备与虚拟图像相同或类似的特性的变换的测试图像所包含的对象,从而在现实世界中能够协助自动驾驶车辆的行驶。
通过这样的测试过程,能够将利用关于虚拟世界的信息而学习的虚拟对象检测器170使用在现实世界的自动驾驶中。
关于本发明的正面的效果,提供如下的方法:使使用虚拟世界上的虚拟图像而学习的对象检测器通过利用GAN(Generative Adversarial Network)而学习的变换器来将真实图像变换成虚拟图像,从而检测真实世界上的真实图像所包含的对象。
因此,关于本发明的方法,可利用运行时输入变换器而在虚拟行驶环境中使用。另外,该方法可减少虚拟与现实之间的差异和注释(Annotation)费用。
本领域技术人员可以理解,上述说明的图像,例如原始图像、原始标签及追加标签这样的图像数据的收发通过学习装置及测试装置的通信部而实现,可通过学习装置及测试装置的处理器(及/或存储器)而保留/保持特征图和用于进行运算的数据,并且卷积运算、解卷积运算、损失值运算过程主要通过学习装置及测试装置的处理器而执行,但本发明不限于此。
以上说明的本发明的实施例可体现为通过各种计算机构成要素来实现的程序命令的形态来记录到计算机可读取的记录介质。上述计算机可读取的记录介质可单独或以组合的方式包括程序命令、数据文件、数据结构等。记录到上述计算机可读取的记录介质的程序命令可以是为本发明特别设计并构成的命令或计算机软件领域的技术人员公知而使用的命令。作为计算机可读取的记录介质的例子,包括硬盘、软盘及磁带这样的磁性介质、CD-ROM、DVD这样的光记录介质、光碟(floptical disk)这样的磁光介质(magneto-opticaledia)及ROM、RAM、闪存等这样的以存储程序命令且执行的方式特别构成的硬件装置。作为程序命令的例子,不仅包括由编译器制作的机器代码,而且还包括使用解释器等而通过计算机来执行的高级语言代码。上述硬件装置既可构成为一个以上的软件模块,以执行本发明的处理,也可以与其相反的方式构成。
以上,通过具体的构成要素等这样的特定事项和限定的实施例及附图而对本发明进行了说明,但这是为了整体地理解本发明而提供的,本发明不限于这样的上述实施例,本领域技术人员可从这样的记载进行各种修改及变形。
因此,本发明的思想不限于上述说明的实施例,不仅是后述的权利要求书,与该权利要求书均等或等价地变换的所有内容均包括在本发明的思想的范围中。

Claims (24)

1.一种学习方法,利用循环GAN而将真实世界上的至少一个真实图像变换成虚拟世界上的至少一个虚拟图像,其特征在于,包括如下步骤:
(a)当获得作为上述真实图像之一的至少一个第1图像时,学习装置,(i)使第1变换器将上述第1图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第2图像,(ii)(ii-1)使第1判别器判断上述第2图像是初级虚拟图像之一还是次级虚拟图像之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,上述次级虚拟图像是从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,(ii-2)使第2变换器将上述第2图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第3图像;
(b)当获得作为上述虚拟图像之一的至少一个第4图像时,上述学习装置,(i)使上述第2变换器将上述第4图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第5图像,(ii)(ii-1)使第2判别器判断上述第5图像是初级真实图像之一还是次级真实图像之一,从而生成第2_1结果,上述初级真实图像是并非从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,上述次级真实图像是从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,(ii-2)使上述第1变换器将上述第5图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第6图像;及
(c)上述学习装置参照上述第1图像、上述第2图像、上述第3图像、上述第4图像、上述第5图像、上述第6图像、上述第1_1结果及上述第2_1结果中的至少一部分来算出至少一个损失,从而学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分。
2.根据权利要求1所述的学习方法,其特征在于,
在上述(c)步骤中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))+β|X-G(F(X))|)
上述至少一个损失所包含的变换器损失根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β为用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数。
3.根据权利要求1所述的学习方法,其特征在于,
在上述(c)步骤中,
当获得(i)通过检测输入到自己的图像所包含的至少一个虚拟对象的虚拟对象检测器而生成的、关于上述第2图像及上述第6图像中的至少一部分的虚拟对象检测结果及(ii)与此对应的GT时,上述学习装置使损失单元进一步参照上述虚拟对象检测结果而生成上述至少一个损失的至少一部分。
4.根据权利要求3所述的学习方法,其特征在于,
在上述(c)步骤中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))+β|X-G(F(X))|)+argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))
上述至少一个损失所包含的变换器损失根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数,
argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))表示与上述虚拟对象检测结果对应的上述变换器损失的部分损失,λ1和λ2是用于调整各个OD(G(I))及OD(G(F(X)))的各个加权值的常数。
5.根据权利要求1所述的学习方法,其特征在于,
在上述(c)步骤中,
Figure FDA0002359528220000021
上述损失所包含的上述第1判别器用FD损失根据上述式而被定义,VI表示上述虚拟图像中的任意虚拟图像,DG(VI)表示关于上述任意虚拟图像的上述第1判别器的判断内容即第1_2结果,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果。
6.根据权利要求1所述的学习方法,其特征在于,
在上述(c)步骤中,
Figure FDA0002359528220000031
上述损失所包含的上述第2判别器用SD损失根据上述式而被定义,RI表示上述真实图像中的任意真实图像,DF(RI)表示关于上述任意真实图像的上述第2判别器的判断内容即第2_2结果,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果。
7.根据权利要求1所述的学习方法,其特征在于,
上述第1变换器及上述第2变换器分别包括至少一个编码层及至少一个解码层中的至少一部分。
8.根据权利要求7所述的学习方法,其特征在于,
彼此关联地学习(i)(i-1)作为上述第1变换器所包含的第1编码层中的至少一部分的至少一个第1特定编码层及(i-2)作为上述第1变换器所包含的第1解码层中的至少一部分的至少一个第1特定解码层所包含的第1参数中的至少一部分与(ii)(ii-1)作为上述第2变换器所包含的第2编码层中的至少一部分的至少一个第2特定编码层及(ii-2)作为上述第2变换器所包含的第2解码层中的至少一部分的至少一个第2特定解码层所包含的第2参数中的至少一部分,从而使上述第1参数与上述第2参数之间的相关性超过临界值。
9.根据权利要求8所述的学习方法,其特征在于,
上述第1特定编码层及上述第1特定解码层以从位于上述第1编码层与上述第1解码层之间的第1隐空间隔开的至少一个第1距离小于第1临界距离的方式分别从上述第1编码层及上述第1解码层中被选择,上述第2特定编码层及上述第2特定解码层以从位于上述第2编码层与上述第2解码层之间的第2隐空间隔开的至少一个第2距离小于第2临界距离的方式分别从上述第1解码层及上述第2解码层中被选择。
10.一种测试方法,利用循环GAN而将真实世界上的至少一个真实图像(Real Image)变换成虚拟世界上的至少一个虚拟图像,其特征在于,
(1)学习装置,(i)使第1变换器将作为学习用真实图像之一的至少一个学习用第1图像变换成具备与至少一个学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第2图像,(ii)(ii-1)使第1判别器判断上述学习用第2图像是初级虚拟图像之一还是次级虚拟图像之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,上述次级虚拟图像是从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,(ii-2)使第2变换器将上述学习用第2图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第3图像,(2)上述学习装置,(i)使上述第2变换器将作为上述学习用虚拟图像之一的至少一个学习用第4图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第5图像,(ii)(ii-1)使第2判别器判断上述学习用第5图像是初级真实图像之一还是次级真实图像之一,从而生成第2_1结果,上述初级真实图像是并非从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,上述次级真实图像是从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,(ii-2)使上述第1变换器将上述学习用第5图像变换成具备与上述学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第6图像,(3)上述学习装置参照上述学习用第1图像、上述学习用第2图像、上述学习用第3图像、上述学习用第4图像、上述学习用第5图像、上述学习用第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而在学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分的状态下,测试装置使上述第1变换器获得作为上述测试用真实图像之一的至少一个测试图像,将上述测试图像变换成具备与上述测试用虚拟图像相同或类似的至少一个特性的至少一个变换的测试图像。
11.根据权利要求10所述的测试方法,其特征在于,
上述变换的测试图像是为了对上述虚拟对象检测器所包含的参数进行微调而使用的。
12.根据权利要求10所述的测试方法,其特征在于,
上述测试图像是通过自动驾驶车辆所包含的照相机而获得的上述测试用真实图像之一,上述自动驾驶汽车所包含的虚拟对象检测器检测上述变换的测试图像所包含的至少一个对象而协助上述真实世界中的上述自动驾驶车辆的行驶。
13.一种学习装置,其利用循环GAN而将真实世界上的至少一个真实图像变换成虚拟世界上的至少一个虚拟图像,其特征在于,其包括:
至少一个存储器,其存储指令;及
至少一个处理器,其执行用于执行如下处理的上述指令:(I)当获得作为上述真实图像之一的至少一个第1图像时,(i)使第1变换器将上述第1图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第2图像,(ii)(ii-1)使第1判别器判断上述第2图像是初级虚拟图像之一还是次级虚拟图像之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,上述次级虚拟图像是从上述真实图像的至少一部分变换的上述虚拟图像的至少一部分,(ii-2)使第2变换器将上述第2图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第3图像;(II)当获得作为上述虚拟图像之一的至少一个第4图像时,(i)使上述第2变换器将上述第4图像变换成具备与上述真实图像相同或类似的至少一个特性的至少一个第5图像,(ii)(ii-1)使第2判别器判断上述第5图像是初级真实图像之一还是次级真实图像之一,从而生成第2_1结果,上述初级真实图像是并非从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,上述次级真实图像是从上述虚拟图像的至少一部分变换的上述真实图像的至少一部分,(ii-2)使上述第1变换器将上述第5图像变换成具备与上述虚拟图像相同或类似的至少一个特性的至少一个第6图像;及(III)参照上述第1图像、上述第2图像、上述第3图像、上述第4图像、上述第5图像、上述第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分。
14.根据权利要求13所述的学习装置,其特征在于,
在上述(III)处理中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))+β|X-G(F(X))|)
上述至少一个损失所包含的变换器损失根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数。
15.根据权利要求13所述的学习装置,其特征在于,
在上述(III)处理中,
(i)当获得通过检测输入到自己的图像所包含的至少一个虚拟对象的虚拟对象检测器而生成的关于上述第2图像及上述第6图像中的至少一部分的虚拟对象检测结果及(ii)与此对应的GT时,上述处理器使损失单元进一步参照上述虚拟对象检测结果而生成上述至少一个损失的至少一部分。
16.根据权利要求15所述的学习装置,其特征在于,
在上述(III)处理中,
G*=argmin(log(1-DG(G(I)))+γ|I-F(G(I))|+log(1-DF(F(X)))+β|X-G(F(X))|)+argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))
上述至少一个损失所包含的变换器损失根据上述式而被定义,I表示上述第1图像,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果,F(G(I))表示上述第3图像,X表示上述第4图像,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果,G(F(X))表示上述第6图像,γ及β是用于调整各个|I-F(G(I))|及|X-G(F(X))|的各个加权值的常数,
argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))表示与上述虚拟对象检测结果对应的上述变换器损失的部分损失,λ1和λ2是用于调整各个OD(G(I))及OD(G(F(X)))的各个加权值的常数。
17.根据权利要求13所述的学习装置,其特征在于,
在上述(III)处理中,
Figure FDA0002359528220000061
上述损失所包含的上述第1判别器用FD损失根据上述式而被定义,VI表示上述虚拟图像中的任意虚拟图像,DG(VI)表示关于上述任意虚拟图像的上述第1判别器的判断内容即第1_2结果,G(I)表示上述第2图像,DG(G(I))表示上述第1_1结果。
18.根据权利要求13所述的学习装置,其特征在于,
在上述(III)处理中,
Figure FDA0002359528220000062
上述损失所包含的上述第2判别器用SD损失根据上述式而被定义,RI表示上述真实图像中的任意真实图像,DF(RI)表示关于上述任意真实图像的上述第2判别器的判断内容即第2_2结果,F(X)表示上述第5图像,DF(F(X))表示上述第2_1结果。
19.根据权利要求13所述的学习装置,其特征在于,
上述第1变换器及上述第2变换器分别包含至少一个编码层及至少一个解码层中的至少一部分。
20.根据权利要求19所述的学习装置,其特征在于,
彼此关联地进行学习(i)(i-1)作为上述第1变换器所包含的第1编码层中的至少一部分的至少一个第1特定编码层及(i-2)作为上述第1变换器所包含的第1解码层中的至少一部分的至少一个第1特定解码层所包含的第1参数中的至少一部分与(ii)(ii-1)作为上述第2变换器所包含的第2编码层中的至少一部分的至少一个第2特定编码层及(ii-2)作为上述第2变换器所包含的第2解码层中的至少一部分的至少一个第2特定解码层所包含的第2参数中的至少一部分,从而使上述第1参数与上述第2参数之间的相关性超过临界值。
21.根据权利要求20所述的学习装置,其特征在于,
上述第1特定编码层及上述第1特定解码层以从位于上述第1编码层与上述第1解码层之间的第1隐空间隔开的至少一个第1距离小于第1临界距离的方式分别从上述第1编码层及上述第1解码层中被选择,上述第2特定编码层及上述第2特定解码层以从位于上述第2编码层与上述第2解码层之间的第2隐空间隔开的至少一个第2距离小于第2临界距离的方式分别从上述第1解码层及上述第2解码层中被选择。
22.一种测试装置,其利用循环GAN而将真实世界上的至少一个真实图像变换成虚拟世界上的至少一个虚拟图像,其特征在于,其包括:
至少一个存储器,其存储指令;及
至少一个处理器,其执行用于执行如下处理的上述指令:(1)学习装置,(i)使第1变换器将作为学习用真实图像之一的至少一个学习用第1图像变换成具备与至少一个学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第2图像,(ii)(ii-1)使第1判别器判断上述学习用第2图像是初级虚拟图像之一还是次级虚拟图像之一,从而生成第1_1结果,上述初级虚拟图像是并非从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,上述次级虚拟图像是从上述学习用真实图像的至少一部分变换的上述学习用虚拟图像的至少一部分,(ii-2)使第2变换器将上述学习用第2图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第3图像,(2)上述学习装置,(i)使上述第2变换器将作为上述学习用虚拟图像之一的至少一个学习用第4图像变换成具备与上述学习用真实图像相同或类似的至少一个特性的至少一个学习用第5图像,(ii)(ii-1)使第2判别器判断上述学习用第5图像是初级真实图像之一还是次级真实图像之一,从而生成第2_1结果,上述初级真实图像是并非从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,上述次级真实图像是从上述学习用虚拟图像的至少一部分变换的上述学习用真实图像的至少一部分,(ii-2)使上述第1变换器将上述学习用第5图像变换成具备与上述学习用虚拟图像相同或类似的至少一个特性的至少一个学习用第6图像,(3)上述学习装置参照上述学习用第1图像、上述学习用第2图像、上述学习用第3图像、上述学习用第4图像、上述学习用第5图像、上述学习用第6图像、上述第1_1结果及上述第2_1结果中的至少一部分而算出至少一个损失,从而在学习上述第1变换器、上述第2变换器、上述第1判别器及上述第2判别器的参数中的至少一部分的状态下,使上述第1变换器获得作为上述测试用真实图像之一的至少一个测试图像,将上述测试图像变换成具备与上述测试用虚拟图像相同或类似的至少一个特性的至少一个变换的测试图像。
23.根据权利要求22所述的测试装置,其特征在于,
上述变换的测试图像是为了对上述虚拟对象检测器所包含的参数进行微调而使用的。
24.根据权利要求22所述的测试装置,其特征在于,
上述测试图像是通过自动驾驶车辆所包含的照相机而获得的上述测试用真实图像之一,上述自动驾驶汽车所包含的虚拟对象检测器检测上述变换的测试图像所包含的至少一个对象而协助上述真实世界中的上述自动驾驶车辆的行驶。
CN202010017701.1A 2019-01-28 2020-01-08 利用循环gan将真实图像变换成虚拟图像的方法及装置 Active CN111489285B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/258,877 US10373023B1 (en) 2019-01-28 2019-01-28 Learning method and learning device for runtime input transformation of real image on real world into virtual image on virtual world, to be used for object detection on real images, by using cycle GAN capable of being applied to domain adaptation
US16/258,877 2019-01-28

Publications (2)

Publication Number Publication Date
CN111489285A true CN111489285A (zh) 2020-08-04
CN111489285B CN111489285B (zh) 2023-07-04

Family

ID=67477545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010017701.1A Active CN111489285B (zh) 2019-01-28 2020-01-08 利用循环gan将真实图像变换成虚拟图像的方法及装置

Country Status (5)

Country Link
US (1) US10373023B1 (zh)
EP (1) EP3686849B1 (zh)
JP (1) JP6886201B2 (zh)
KR (1) KR102372702B1 (zh)
CN (1) CN111489285B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10916046B2 (en) * 2019-02-28 2021-02-09 Disney Enterprises, Inc. Joint estimation from images
CN109919251A (zh) * 2019-03-21 2019-06-21 腾讯科技(深圳)有限公司 一种基于图像的目标检测方法、模型训练的方法及装置
EP3736741A1 (en) 2019-05-06 2020-11-11 Dassault Systèmes Experience learning in virtual world
US20200364585A1 (en) * 2019-05-17 2020-11-19 Oracle International Corporation Modular feature extraction from parsed log data
US10733325B1 (en) 2019-11-15 2020-08-04 Capital One Services, Llc Securing user-entered text in-transit
KR20220008035A (ko) 2020-07-13 2022-01-20 삼성전자주식회사 위조 지문 검출 방법 및 장치
CN112669242A (zh) * 2021-03-16 2021-04-16 四川大学 基于改进图像增强算法与生成对抗网络的夜景复原方法
KR102616961B1 (ko) * 2021-08-31 2023-12-27 동국대학교 산학협력단 이종 캡슐내시경 간의 도메인 적응에 의한 병증정보 제공 방법
CN114219701A (zh) * 2021-11-10 2022-03-22 华南理工大学 敦煌壁画艺术风格转换方法、系统、计算机设备及存储介质
KR102580658B1 (ko) * 2022-06-28 2023-09-21 국민대학교산학협력단 스케치 이미지 객체 탐지를 위한 이미지 변환 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017026193A1 (ja) * 2015-08-12 2017-02-16 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび画像処理システム
CN107273936A (zh) * 2017-07-07 2017-10-20 广东工业大学 一种gan图像处理方法及系统
US20180182114A1 (en) * 2016-12-27 2018-06-28 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
CN108495110A (zh) * 2018-01-19 2018-09-04 天津大学 一种基于生成式对抗网络的虚拟视点图像生成方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614287B2 (en) * 2014-06-16 2020-04-07 Siemens Healthcare Diagnostics Inc. Virtual staining of cells in digital holographic microscopy images using general adversarial networks
WO2019019199A1 (en) * 2017-07-28 2019-01-31 Shenzhen United Imaging Healthcare Co., Ltd. SYSTEM AND METHOD FOR IMAGE CONVERSION
US10726304B2 (en) * 2017-09-08 2020-07-28 Ford Global Technologies, Llc Refining synthetic data with a generative adversarial network using auxiliary inputs
US11501438B2 (en) * 2018-04-26 2022-11-15 Elekta, Inc. Cone-beam CT image enhancement using generative adversarial networks
US20210383538A1 (en) * 2018-07-30 2021-12-09 Memorial Sloan Kettering Cancer Center Multi-modal, multi-resolution deep learning neural networks for segmentation, outcomes prediction and longitudinal response monitoring to immunotherapy and radiotherapy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017026193A1 (ja) * 2015-08-12 2017-02-16 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび画像処理システム
US20180182114A1 (en) * 2016-12-27 2018-06-28 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
CN107273936A (zh) * 2017-07-07 2017-10-20 广东工业大学 一种gan图像处理方法及系统
CN108495110A (zh) * 2018-01-19 2018-09-04 天津大学 一种基于生成式对抗网络的虚拟视点图像生成方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HARDIK BANSAL等: "Understanding and Implementing CycleGAN in TensorFlo", 《HTTPS:GOTHUB.COM/ARCHITRATHORE》 *
HARDIK BANSAL等: "Understanding and Implementing CycleGAN in TensorFlo", 《HTTPS:GOTHUB.COM/ARCHITRATHORE》, 11 January 2018 (2018-01-11) *
PIERLUIGI ZAMA RAMIREZ等: "Exploiting semantics in adversarial training for", 《IEEE》 *
PIERLUIGI ZAMA RAMIREZ等: "Exploiting semantics in adversarial training for", 《IEEE》, 13 October 2018 (2018-10-13) *

Also Published As

Publication number Publication date
EP3686849A1 (en) 2020-07-29
KR102372702B1 (ko) 2022-03-10
EP3686849B1 (en) 2024-03-06
US10373023B1 (en) 2019-08-06
EP3686849C0 (en) 2024-03-06
JP2020119553A (ja) 2020-08-06
CN111489285B (zh) 2023-07-04
JP6886201B2 (ja) 2021-06-16
KR20200093424A (ko) 2020-08-05

Similar Documents

Publication Publication Date Title
CN111489285A (zh) 利用循环gan将真实图像变换成虚拟图像的方法及装置
KR102349910B1 (ko) 가상 주행 환경에서 사용되는 도메인 적응에 적용될 수 있는 gan을 이용하여, 실제 특징 맵과 동일하거나 유사한 특성을 가지는 가상 특징 맵을 생성하는 학습 방법 및 학습 장치
JP6870868B2 (ja) Non−RGBフォーマットを有するイメージの物体に対する物体検出学習に使用され得るように、サイクルGANを使用してRGBトレーニングイメージセットをNon−RGBトレーニングイメージセットに変換して、コンピューティング負荷及びリサイクルデータを顕著に減少させ得る学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP2020038667A (ja) 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置
KR102337381B1 (ko) 극한 상황에서 폴트 톨러런스 및 플럭츄에이션 로버스트를 향상시키기 위해, 지터링이 일어난 이미지를 안정화하는 프로세스에서 생성된 와핑된 이미지에 발생된 왜곡을, GAN(Generative Adversarial Network)을 이용하여 줄이기 위한 학습 방법 및 학습 장치
US10325179B1 (en) Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same
CN111507459B (zh) 降低神经网络的注解费用的方法和装置
CN111507906B (zh) 用用于容错及波动鲁棒性的神经网络除抖动的方法及装置
JP2020038668A (ja) 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置
US10325185B1 (en) Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same
JP2020126622A (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
US10311336B1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
CN118072278A (zh) 对象检测方法、对象检测设备以及其非暂时性存储媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant