JP2020119553A - ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 - Google Patents
ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP2020119553A JP2020119553A JP2020004253A JP2020004253A JP2020119553A JP 2020119553 A JP2020119553 A JP 2020119553A JP 2020004253 A JP2020004253 A JP 2020004253A JP 2020004253 A JP2020004253 A JP 2020004253A JP 2020119553 A JP2020119553 A JP 2020119553A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- virtual
- real
- converter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000012360 testing method Methods 0.000 title claims abstract description 70
- 238000001514 detection method Methods 0.000 title claims description 18
- 230000009466 transformation Effects 0.000 title abstract description 5
- 230000001131 transforming effect Effects 0.000 title abstract description 4
- 230000006978 adaptation Effects 0.000 title description 4
- 238000010998 test method Methods 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims description 57
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- ZFHGXWPMULPQSE-SZGBIDFHSA-N (Z)-(1S)-cis-tefluthrin Chemical compound FC1=C(F)C(C)=C(F)C(F)=C1COC(=O)[C@@H]1C(C)(C)[C@@H]1\C=C(/Cl)C(F)(F)F ZFHGXWPMULPQSE-SZGBIDFHSA-N 0.000 description 1
- 108010074506 Transfer Factor Proteins 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Graphics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数(constant)であることを特徴とする。
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であり、argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))は、前記仮想物体の検出結果に対応する前記変換器ロスの部分ロス(Partial Loss)を意味し、λ1及びλ2はそれぞれのOD(G(I))及びOD(G(F(X)))のそれぞれの重み付け値を調整するための定数であることを特徴とする。
前記ロスに含まれる前記第1判別器用FDロスは、前記数式によって定義され、VIは前記バーチャルイメージのうち任意のバーチャルイメージ、DG(VI)は前記任意のバーチャルイメージに対する前記第1判別器の判断内容である第1_2結果、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果を意味することを特徴とする。
前記ロスに含まれる前記第2判別器用SDロスは、前記数式によって定義され、RIは前記リアルイメージのうち任意のリアルイメージ、DF(RI)は前記任意のリアルイメージに対する前記第2判別器の判断内容である第2_2結果、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果を意味することを特徴とする。
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であることを特徴とする。
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であり、argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))は、前記仮想物体の検出結果に対応する前記変換器ロスの部分ロス(Partial Loss)を意味し、λ1及びλ2はそれぞれのOD(G(I))及びOD(G(F(X)))のそれぞれの重み付け値を調整するための定数であることを特徴とする。
前記ロスに含まれる前記第1判別器用FDロスは、前記数式によって定義され、VIは前記バーチャルイメージのうち任意のバーチャルイメージ、DG(VI)は前記任意のバーチャルイメージに対する前記第1判別器の判断内容である第1_2結果、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果を意味することを特徴とする。
前記ロスに含まれる前記第2判別器用SDロスは、前記数式によって定義され、RIは前記リアルイメージのうち任意のリアルイメージ、DF(RI)は前記任意のリアルイメージに対する前記第2判別器の判断内容である第2_2結果、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果を意味することを特徴とする。
前記少なくとも一つのロスに含まれている変換器ロスは、前記数式によって判断され得るが、Iは第1イメージ、G(I)は第2イメージ、DG(G(I))は第1_1結果、F(G(I))は第3イメージ、Xは第4イメージ、F(X)は第5イメージ、DF(F(X))は第2_1結果、G(F(X))は第6イメージを意味し、γ及びβは|I-F(G(I))|及び|X-G(F(X))|の重み付け値をそれぞれ調整するための定数(constant)であり得る。
仮想物体の検出結果に対応する部分ロスは、argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))項として表現される。ここで、λ1とλ2とは、OD(G(I))及びOD(G(F(X)))の重み付け値をそれぞれ調節する定数である。より詳細な説明は、図4を参照して検討する。
前記数式で、
は、iが特定の物体の個数を表す場合、第1の確率のうち最も大きな確率値を意味する。 そして、
は、0が背景クラスを意味する場合、第2の確率と1との間の差を意味する。上述のような数式によって第2イメージに対応する部分ロスを生成する特定プロセスの第1部分が遂行され得る。第6イメージに対しても、前記第1部分とほぼ同じように第6イメージに対応する部分ロスを生成する特定プロセスの第2部分が遂行され得るはずである。
第1判別器140用ロスであるFDロスは、前記数式によって定義され得る。この際、VIはバーチャルイメージのうち任意のイメージ、DG(VI)は第1判別器から生成された、前記任意のバーチャルイメージを判断した結果である第1_2結果、G(I)は第2イメージ、DG(G(I))は第1_1結果を意味することができる。argmaxは全体の結果値が大きくなるように誘導するところ、DG(VI)が1と出力され、DG(G(I))が0と出力されるようにする。したがって、第1判別器140が入力されたイメージの特性が以前に変換されたのかを正確に判断することができるようになるのである。図4では第2イメージが入力されるプロセスのみが示されているが、第2イメージのような特性が変調したイメージのみが入力されたイメージに限定されるわけではなく、バーチャルイメージのうち一つである任意のイメージも入力することができる。よって、特性が変調したイメージと特性が変調していないイメージとを区分しつつ学習することができるのである。
第2判別器に対するロスであるSDロスは、前記数式によって定義され得る。この際、RIはリアルイメージのうち任意のイメージ、DF(RI)は第2判別器から生成された、前記任意のリアルイメージを判断した結果である第2_2結果、F(X)は前記第5イメージ、DF(F(X))は第2_1結果を意味することができる。FDロスと同様に、これは第2判別器160が入力されたイメージの特性が以前に変調したか否かを正確に判断することを可能にする。また、リアルイメージのうち一つである任意のイメージを入力して学習に使用することができる。
Claims (24)
- サイクルGAN(Cycle Generative Adversarial Network)を利用してリアル世界における少なくとも一つのリアルイメージ(Real Image)をバーチャル世界における少なくとも一つのバーチャルイメージ(Virtual Image)に変換する学習方法において、
(a)前記リアルイメージのうち一つである少なくとも一つの第1イメージを取得すると、学習装置が、(i)第1変換器(Transformer)をもって、前記第1イメージを前記バーチャルイメージと同一または類似する少なくとも一つの特性(Characteristic)を有する少なくとも一つの第2イメージに変換させ、(ii)(ii−1)第1判別器(Discriminator)をもって、前記第2イメージが1次バーチャルイメージ(Primary Virtual Image)のうち一つであるのか又は2次バーチャルイメージ(Secondary Virtual Image)のうち一つであるのかを判断させることによって第1_1結果を生成させ、前記1次バーチャルイメージは、前記リアルイメージの少なくとも一部から変換されたものでなく前記バーチャルイメージの少なくとも一部であり、前記2次バーチャルイメージは、前記リアルイメージの少なくとも一部から変換されたものである前記バーチャルイメージの少なくとも一部であり、(ii−2)第2変換器をもって、前記第2イメージを、前記リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第3イメージに変換させる段階;
(b)前記バーチャルイメージのうち一つである少なくとも一つの第4イメージを取得すると、前記学習装置が、(i)前記第2変換器をもって、前記第4イメージを、前記リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第5イメージに変換させ、(ii)(ii−1)第2判別器をもって、前記第5イメージが1次リアルイメージ(Primary Real Image)のうち一つであるのか2次リアルイメージ(Secondary Real Image)のうち一つであるのかを判断させることによって第2_1結果を生成させ、前記1次リアルイメージは、前記バーチャルイメージの少なくとも一部から変換されたものでなく、前記リアルイメージの少なくとも一部であり、前記2次リアルイメージは、前記バーチャルイメージの少なくとも一部から変換されたものである前記リアルイメージの少なくとも一部であり、(ii−2)前記第1変換器をもって、前記第5イメージを前記バーチャルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第6イメージに変換させる段階;及び
(c)前記学習装置が、前記第1イメージと、前記第2イメージと、前記第3イメージと、前記第4イメージと、前記第5イメージと、前記第6イメージと、前記第1_1結果と、前記第2_1結果とのうち少なくとも一部を参照して少なくとも一つのロスを算出することによって、前記第1変換器、前記第2変換器、前記第1判別器、及び前記第2判別器のパラメータのうち少なくとも一部を学習させる段階;
を含むことを特徴とする学習方法。 - 前記(c)段階で、
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数(constant)であることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記学習装置は、(i)それ自体に入力されたイメージに含まれている少なくとも一つの仮想物体を検出する仮想物体検出器により生成された、前記第2イメージ及び前記第6イメージのうち少なくとも一部に対する仮想物体の検出結果、及び(ii)これに対応する原本正解が取得されると、ロスユニット(Loss Unit)をもって、前記仮想物体の検出結果をさらに参照して前記少なくとも一つのロスの少なくとも一部を生成させることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であり、
argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))は、前記仮想物体の検出結果に対応する前記変換器ロスの部分ロス(Partial Loss)を意味し、λ1及びλ2は、それぞれのOD(G(I))及びOD(G(F(X)))のそれぞれの重み付け値を調整するための定数であることを特徴とする請求項3に記載の方法。 - 前記(c)段階で、
前記ロスに含まれる前記第1判別器用FDロスは、前記数式によって定義され、VIは前記バーチャルイメージのうち任意のバーチャルイメージ、DG(VI)は前記任意のバーチャルイメージに対する前記第1判別器の判断内容である第1_2結果、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果を意味することを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記ロスに含まれる前記第2判別器用SDロスは、前記数式によって定義され、RIは前記リアルイメージのうち任意のリアルイメージ、DF(RI)は前記任意のリアルイメージに対する前記第2判別器の判断内容である第2_2結果、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果を意味することを特徴とする請求項1に記載の方法。 - 前記第1変換器及び前記第2変換器それぞれは、少なくとも一つのエンコードレイヤ及び少なくとも一つのデコードレイヤのうち少なくとも一部を含むことを特徴とする請求項1に記載の方法。
- (i)(i−1)前記第1変換器に含まれている第1エンコードレイヤのうち少なくとも一部である少なくとも一つの第1特定エンコードレイヤ、及び(i−2)前記第1変換器に含まれている第1デコードレイヤのうち少なくとも一部である少なくとも一つの第1特定デコードレイヤに含まれている第1パラメータのうち少なくとも一部と、(ii)(ii−1)前記第2変換器に含まれている第2エンコードレイヤのうち少なくとも一部である少なくとも一つの第2特定エンコードレイヤ、及び(ii−2)前記第2変換器に含まれている第2デコードレイヤのうち少なくとも一部である少なくとも一つの第2特定デコードレイヤに含まれている第2パラメータのうち少なくとも一部とは相互に関連して学習されるようにすることによって、前記第1パラメータと前記第2パラメータとの間の関連度が閾値を超過するようにすることを特徴とする請求項7に記載の方法。
- 前記第1特定エンコードレイヤ及び前記第1特定デコードレイヤは、前記第1エンコードレイヤと前記第1デコードレイヤとの間に位置する第1レイテントスペース(Latent Space)から離れた少なくとも一つの第1距離(Distance)が第1臨界距離未満になるようにそれぞれ前記第1エンコードレイヤ及び前記第1デコードレイヤの中から選択され、前記第2特定エンコードレイヤ及び前記第2特定デコードレイヤは、前記第2エンコードレイヤと前記第2デコードレイヤとの間に位置する第2レイテントスペースから離れた少なくとも一つの第2距離が第2臨界距離未満になるようにそれぞれ前記第1デコードレイヤ及び前記第2デコードレイヤの中から選択されることを特徴とする請求項8に記載の方法。
- サイクルGAN(Cycle Generative Adversarial Network)を利用してリアル世界における少なくとも一つのリアルイメージ(Real Image)をバーチャル世界における少なくとも一つのバーチャルイメージ(Virtual Image)に変換するテスト方法において、
(1)学習装置が、(i)第1変換器(Transformer)をもって、学習用リアルイメージのうち一つである、少なくとも一つの学習用第1イメージを少なくとも一つの学習用バーチャルイメージと同一または類似する少なくとも一つの特性(Characteristic)を有する少なくとも一つの学習用第2イメージに変換させ、(ii)(ii−1)第1判別器(Discriminator)をもって、前記学習用第2イメージが1次バーチャルイメージ(Primary Virtual Image)のうち一つであるのか又は2次バーチャルイメージ(Secondary Virtual Image)のうち一つであるのかを判断させることによって第1_1結果を生成させ、前記1次バーチャルイメージは、前記学習用リアルイメージの少なくとも一部から変換されたものでなく前記学習用バーチャルイメージの少なくとも一部であり、前記2次バーチャルイメージは、前記学習用リアルイメージの少なくとも一部から変換されたものである前記学習用バーチャルイメージの少なくとも一部であり、(ii−2)第2変換器をもって、前記学習用第2イメージを、前記学習用リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第3イメージに変換させ、(2)前記学習装置が、(i)前記第2変換器をもって、前記学習用バーチャルイメージのうち一つである少なくとも一つの学習用第4イメージを、前記学習用リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第5イメージに変換させ、(ii)(ii−1)第2判別器をもって、前記学習用第5イメージが1次リアルイメージ(Primary Real Image)のうち一つであるのか2次リアルイメージ(Secondary Real Image)のうち一つであるのかを判断させることによって第2_1結果を生成させ、前記1次リアルイメージは、前記学習用バーチャルイメージの少なくとも一部から変換されたものでなく前記学習用リアルイメージの少なくとも一部であり、前記2次リアルイメージは、前記学習用バーチャルイメージの少なくとも一部から変換されたものである前記学習用リアルイメージの少なくとも一部であり、(ii−2)前記第1変換器をもって、前記学習用第5イメージを前記学習用バーチャルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第6イメージに変換させ、(3)前記学習装置が、前記学習用第1イメージと、前記学習用第2イメージと、前記学習用第3イメージと、前記学習用第4イメージと、前記学習用第5イメージと、前記学習用第6イメージと、前記第1_1結果と、前記第2_1結果とのうち少なくとも一部を参照して少なくとも一つのロスを算出することによって、前記第1変換器、前記第2変換器、前記第1判別器、及び前記第2判別器のパラメータのうち少なくとも一部を学習させた状態で、テスト装置が前記第1変換器をもって、前記テスト用リアルイメージのうち1つである少なくとも1つのテストイメージを取得させ、前記テストイメージを前記テスト用バーチャルイメージと同一または類似する少なくとも1つの特性を有する少なくとも1つの変換されたテストイメージに変換させることを特徴とするテスト方法。 - 前記変換されたテストイメージは、前記仮想物体検出器に含まれているパラメータを微調整(Fine−Tuning)するために使用されることを特徴とする請求項10に記載のテスト方法。
- 前記テストイメージは、自律走行車両に含まれているカメラにより取得された前記テスト用リアルイメージのうち1つであり、前記自律走行自動車に含まれている仮想物体検出器(Virtual Object Detector)が、前記変換されたテストイメージに含まれている少なくとも1つの物体を検出することによって前記リアル世界における前記自律走行車両の走行を支援することを特徴とする請求項10に記載の方法。
- サイクルGAN(Cycle Generative Adversarial Network)を利用してリアル世界における少なくとも一つのリアルイメージ(Real Image)をバーチャル世界における少なくとも一つのバーチャルイメージ(Virtual Image)に変換する学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)前記リアルイメージのうち一つである少なくとも一つの第1イメージを取得すると、(i)第1変換器(Transformer)をもって、前記第1イメージを前記バーチャルイメージと同一または類似する少なくとも一つの特性(Characteristic)を有する少なくとも一つの第2イメージに変換させ、(ii)(ii−1)第1判別器(Discriminator)をもって、前記第2イメージが1次バーチャルイメージ(Primary Virtual Image)のうち一つであるのか又は2次バーチャルイメージ(Secondary Virtual Image)のうち一つであるのかを判断させることによって第1_1結果を生成させ、前記1次バーチャルイメージは、前記リアルイメージの少なくとも一部から変換されたものでなく前記バーチャルイメージの少なくとも一部であり、前記2次バーチャルイメージは、前記リアルイメージの少なくとも一部から変換されたものである前記バーチャルイメージの少なくとも一部であり、(ii−2)第2変換器をもって、前記第2イメージを、前記リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第3イメージに変換するプロセス、(II)前記バーチャルイメージのうち一つである少なくとも一つの第4イメージを取得すると、(i)前記第2変換器をもって、前記第4イメージを、前記リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第5イメージに変換させ、(ii)(ii−1)第2判別器をもって、前記第5イメージが1次リアルイメージ(Primary Real Image)のうち一つであるのか2次リアルイメージ(Secondary Real Image)のうち一つであるのかを判断させることによって第2_1結果を生成させ、前記1次リアルイメージは、前記バーチャルイメージの少なくとも一部から変換されたものでなく、前記リアルイメージの少なくとも一部であり、前記2次リアルイメージは、前記バーチャルイメージの少なくとも一部から変換されたものである前記リアルイメージの少なくとも一部であり、(ii−2)前記第1変換器をもって、前記第5イメージを前記バーチャルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの第6イメージに変換させるプロセス、及び(III)前記第1イメージと、前記第2イメージと、前記第3イメージと、前記第4イメージと、前記第5イメージと、前記第6イメージと、前記第1_1結果と、前記第2_1結果とのうち少なくとも一部を参照して少なくとも一つのロスを算出することによって、前記第1変換器、前記第2変換器、前記第1判別器、及び前記第2判別器のパラメータのうち少なくとも一部を学習させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする学習装置。 - 前記(III)プロセスで、
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であることを特徴とする請求項13に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、(i)それ自体に入力されたイメージに含まれている少なくとも一つの仮想物体を検出する仮想物体検出器により生成された、前記第2イメージ及び前記第6イメージのうち少なくとも一部に対する仮想物体の検出結果、及び(ii)これに対応する原本正解が取得されると、ロスユニット(Loss Unit)をもって、前記仮想物体の検出結果をさらに参照して前記少なくとも一つのロスの少なくとも一部を生成させることを特徴とする請求項13に記載の装置。 - 前記(III)プロセスで、
前記少なくとも一つのロスに含まれる変換器ロス(Transformer Loss)は前記数式によって定義され、Iは前記第1イメージ、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果、F(G(I))は前記第3イメージ、Xは前記第4イメージ、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果、G(F(X))は前記第6イメージを意味し、γ及びβはそれぞれの|I-F(G(I))|及び|X-G(F(X))|のそれぞれの重み付け値を調整するための定数であり、
argmax(λ1×OD(G(I))+λ2×OD(G(F(X))))は、前記仮想物体の検出結果に対応する前記変換器ロスの部分ロス(Partial Loss)を意味し、λ1及びλ2はそれぞれのOD(G(I))及びOD(G(F(X)))のそれぞれの重み付け値を調整するための定数であることを特徴とする請求項15に記載の装置。 - 前記(III)プロセスで、
前記ロスに含まれる前記第1判別器用FDロスは、前記数式によって定義され、VIは前記バーチャルイメージのうち任意のバーチャルイメージ、DG(VI)は前記任意のバーチャルイメージに対する前記第1判別器の判断内容である第1_2結果、G(I)は前記第2イメージ、DG(G(I))は前記第1_1結果を意味することを特徴とする請求項13に記載の装置。 - 前記(III)プロセスで、
前記ロスに含まれる前記第2判別器用SDロスは、前記数式によって定義され、RIは前記リアルイメージのうち任意のリアルイメージ、DF(RI)は前記任意のリアルイメージに対する前記第2判別器の判断内容である第2_2結果、F(X)は前記第5イメージ、DF(F(X))は前記第2_1結果を意味することを特徴とする請求項13に記載の装置。 - 前記第1変換器及び前記第2変換器それぞれは、少なくとも一つのエンコードレイヤ及び少なくとも一つのデコードレイヤのうち少なくとも一部を含むことを特徴とする請求項13に記載の装置。
- (i)(i−1)前記第1変換器に含まれている第1エンコードレイヤのうち少なくとも一部である少なくとも一つの第1特定エンコードレイヤ、及び(i−2)前記第1変換器に含まれている第1デコードレイヤのうち少なくとも一部である少なくとも一つの第1特定デコードレイヤに含まれている第1パラメータのうち少なくとも一部と、(ii)(ii−1)前記第2変換器に含まれている第2エンコードレイヤのうち少なくとも一部である少なくとも一つの第2特定エンコードレイヤ、及び(ii−2)前記第2変換器に含まれている第2デコードレイヤのうち少なくとも一部である少なくとも一つの第2特定デコードレイヤに含まれている第2パラメータのうち少なくとも一部とは相互に関連して学習されるようにすることによって、前記第1パラメータと前記第2パラメータとの間の関連度が閾値を超過するようにすることを特徴とする請求項19に記載の装置。
- 前記第1特定エンコードレイヤ及び前記第1特定デコードレイヤは、前記第1エンコードレイヤと前記第1デコードレイヤとの間に位置する第1レイテントスペース(Latent Space)から離れた少なくとも一つの第1距離(Distance)が第1臨界距離未満になるようにそれぞれ前記第1エンコードレイヤ及び前記第1デコードレイヤの中から選択され、前記第2特定エンコードレイヤ及び前記第2特定デコードレイヤは、前記第2エンコードレイヤと前記第2デコードレイヤとの間に位置する第2レイテントスペースから離れた少なくとも一つの第2距離が第2臨界距離未満になるようにそれぞれ前記第1デコードレイヤ及び前記第2デコードレイヤの中から選択されることを特徴とする請求項20に記載の装置。
- サイクルGAN(Cycle Generative Adversarial Network)を利用してリアル世界における少なくとも一つのリアルイメージ(Real Image)をバーチャル世界における少なくとも一つのバーチャルイメージ(Virtual Image)に変換するテスト装置において、
インストラクションを格納する少なくとも一つのメモリと、
(1)学習装置が、(i)第1変換器(Transformer)をもって、学習用リアルイメージのうち一つである、少なくとも一つの学習用第1イメージを少なくとも一つの学習用バーチャルイメージと同一または類似する少なくとも一つの特性(Characteristic)を有する少なくとも一つの学習用第2イメージに変換させ、(ii)(ii−1)第1判別器(Discriminator)をもって、前記学習用第2イメージが1次バーチャルイメージ(Primary Virtual Image)のうち一つであるのか又は2次バーチャルイメージ(Secondary Virtual Image)のうち一つであるのかを判断させることによって第1_1結果を生成させ、前記1次バーチャルイメージは、前記学習用リアルイメージの少なくとも一部から変換されたものでなく前記学習用バーチャルイメージの少なくとも一部であり、前記2次バーチャルイメージは、前記学習用リアルイメージの少なくとも一部から変換されたものである前記学習用バーチャルイメージの少なくとも一部であり、(ii−2)第2変換器をもって、前記学習用第2イメージを、前記学習用リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第3イメージに変換させ、(2)前記学習装置が、(i)前記第2変換器をもって、前記学習用バーチャルイメージのうち一つである少なくとも一つの学習用第4イメージを、前記学習用リアルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第5イメージに変換させ、(ii)(ii−1)第2判別器をもって、前記学習用第5イメージが1次リアルイメージ(Primary Real Image)のうち一つであるのか2次リアルイメージ(Secondary Real Image)のうち一つであるのかを判断させることによって第2_1結果を生成させ、前記1次リアルイメージは、前記学習用バーチャルイメージの少なくとも一部から変換されたものでなく前記学習用リアルイメージの少なくとも一部であり、前記2次リアルイメージは、前記学習用バーチャルイメージの少なくとも一部から変換されたものである前記学習用リアルイメージの少なくとも一部であり、(ii−2)前記第1変換器をもって、前記学習用第5イメージを前記学習用バーチャルイメージと同一または類似する少なくとも一つの特性を有する少なくとも一つの学習用第6イメージに変換させ、(3)前記学習装置が、前記学習用第1イメージと、前記学習用第2イメージと、前記学習用第3イメージと、前記学習用第4イメージと、前記学習用第5イメージと、前記学習用第6イメージと、前記第1_1結果と、前記第2_1結果とのうち少なくとも一部を参照して少なくとも一つのロスを算出することによって、前記第1変換器、前記第2変換器、前記第1判別器、及び前記第2判別器のパラメータのうち少なくとも一部を学習させた状態で、前記第1変換器をもって、前記テスト用リアルイメージのうち1つである少なくとも1つのテストイメージを取得させ、前記テストイメージを前記テスト用バーチャルイメージと同一または類似する少なくとも1つの特性を有する少なくとも1つの変換されたテストイメージに変換させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも1つのプロセッサと、
を含むことを特徴とするテスト装置。 - 前記変換されたテストイメージは、前記仮想物体検出器に含まれているパラメータを微調整(Fine−Tuning)するために使用されることを特徴とする請求項22に記載のテスト装置。
- 前記テストイメージは、自律走行車両に含まれているカメラにより取得された前記テスト用リアルイメージのうち1つであり、前記自律走行自動車に含まれている仮想物体検出器(Virtual Object Detector)が、前記変換されたテストイメージに含まれている少なくとも1つの物体を検出することによって前記リアル世界における前記自律走行車両の走行を支援することを特徴とする請求項22に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/258,877 US10373023B1 (en) | 2019-01-28 | 2019-01-28 | Learning method and learning device for runtime input transformation of real image on real world into virtual image on virtual world, to be used for object detection on real images, by using cycle GAN capable of being applied to domain adaptation |
US16/258877 | 2019-01-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119553A true JP2020119553A (ja) | 2020-08-06 |
JP6886201B2 JP6886201B2 (ja) | 2021-06-16 |
Family
ID=67477545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004253A Active JP6886201B2 (ja) | 2019-01-28 | 2020-01-15 | ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10373023B1 (ja) |
EP (1) | EP3686849B1 (ja) |
JP (1) | JP6886201B2 (ja) |
KR (1) | KR102372702B1 (ja) |
CN (1) | CN111489285B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022504704A (ja) * | 2019-03-21 | 2022-01-13 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | ターゲット検出方法、モデル訓練方法、装置、機器及びコンピュータプログラム |
US11977976B2 (en) | 2019-05-06 | 2024-05-07 | Dassault Systemes | Experience learning in virtual world |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10916046B2 (en) * | 2019-02-28 | 2021-02-09 | Disney Enterprises, Inc. | Joint estimation from images |
US20200364585A1 (en) * | 2019-05-17 | 2020-11-19 | Oracle International Corporation | Modular feature extraction from parsed log data |
US10733325B1 (en) | 2019-11-15 | 2020-08-04 | Capital One Services, Llc | Securing user-entered text in-transit |
KR20220008035A (ko) | 2020-07-13 | 2022-01-20 | 삼성전자주식회사 | 위조 지문 검출 방법 및 장치 |
CN112669242A (zh) * | 2021-03-16 | 2021-04-16 | 四川大学 | 基于改进图像增强算法与生成对抗网络的夜景复原方法 |
KR102616961B1 (ko) * | 2021-08-31 | 2023-12-27 | 동국대학교 산학협력단 | 이종 캡슐내시경 간의 도메인 적응에 의한 병증정보 제공 방법 |
CN114219701A (zh) * | 2021-11-10 | 2022-03-22 | 华南理工大学 | 敦煌壁画艺术风格转换方法、系统、计算机设备及存储介质 |
KR102580658B1 (ko) * | 2022-06-28 | 2023-09-21 | 국민대학교산학협력단 | 스케치 이미지 객체 탐지를 위한 이미지 변환 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180239951A1 (en) * | 2014-06-16 | 2018-08-23 | Siemens Healthcare Diagnostics Inc. | Virtual staining of cells in digital holographic microscopy images using general adversarial networks |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6708213B2 (ja) * | 2015-08-12 | 2020-06-10 | ソニー株式会社 | 画像処理装置と画像処理方法とプログラムおよび画像処理システム |
US10762653B2 (en) * | 2016-12-27 | 2020-09-01 | Canon Kabushiki Kaisha | Generation apparatus of virtual viewpoint image, generation method, and storage medium |
CN107273936B (zh) * | 2017-07-07 | 2020-09-11 | 广东工业大学 | 一种gan图像处理方法及系统 |
WO2019019199A1 (en) * | 2017-07-28 | 2019-01-31 | Shenzhen United Imaging Healthcare Co., Ltd. | SYSTEM AND METHOD FOR IMAGE CONVERSION |
US10726304B2 (en) * | 2017-09-08 | 2020-07-28 | Ford Global Technologies, Llc | Refining synthetic data with a generative adversarial network using auxiliary inputs |
CN108495110B (zh) * | 2018-01-19 | 2020-03-17 | 天津大学 | 一种基于生成式对抗网络的虚拟视点图像生成方法 |
US11501438B2 (en) | 2018-04-26 | 2022-11-15 | Elekta, Inc. | Cone-beam CT image enhancement using generative adversarial networks |
WO2020028382A1 (en) | 2018-07-30 | 2020-02-06 | Memorial Sloan Kettering Cancer Center | Multi-modal, multi-resolution deep learning neural networks for segmentation, outcomes prediction and longitudinal response monitoring to immunotherapy and radiotherapy |
-
2019
- 2019-01-28 US US16/258,877 patent/US10373023B1/en active Active
- 2019-12-12 KR KR1020190166178A patent/KR102372702B1/ko active IP Right Grant
-
2020
- 2020-01-08 CN CN202010017701.1A patent/CN111489285B/zh active Active
- 2020-01-14 EP EP20151840.4A patent/EP3686849B1/en active Active
- 2020-01-15 JP JP2020004253A patent/JP6886201B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180239951A1 (en) * | 2014-06-16 | 2018-08-23 | Siemens Healthcare Diagnostics Inc. | Virtual staining of cells in digital holographic microscopy images using general adversarial networks |
Non-Patent Citations (2)
Title |
---|
XIYAN LIU ET AL.: "Semantic Image Synthesis via Conditional Cycle-Generative Adversarial Networks", 2018 24TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR), JPN6020050869, 20 August 2018 (2018-08-20), pages 988 - 993, XP033454112, ISSN: 0004419955, DOI: 10.1109/ICPR.2018.8545383 * |
大竹 義人 ET AL.: "シリーズ新潮流−The Next Step of Imaging Technology〈Vol.9〉", INNERVISION, vol. 第33巻/第7号, JPN6020050871, JP, pages 36 - 39, ISSN: 0004419956 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022504704A (ja) * | 2019-03-21 | 2022-01-13 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | ターゲット検出方法、モデル訓練方法、装置、機器及びコンピュータプログラム |
JP7265003B2 (ja) | 2019-03-21 | 2023-04-25 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | ターゲット検出方法、モデル訓練方法、装置、機器及びコンピュータプログラム |
US11977976B2 (en) | 2019-05-06 | 2024-05-07 | Dassault Systemes | Experience learning in virtual world |
JP7553266B2 (ja) | 2019-05-06 | 2024-09-18 | ダッソー システムズ | 仮想世界での体験学習 |
Also Published As
Publication number | Publication date |
---|---|
KR102372702B1 (ko) | 2022-03-10 |
CN111489285B (zh) | 2023-07-04 |
EP3686849B1 (en) | 2024-03-06 |
CN111489285A (zh) | 2020-08-04 |
EP3686849C0 (en) | 2024-03-06 |
JP6886201B2 (ja) | 2021-06-16 |
EP3686849A1 (en) | 2020-07-29 |
US10373023B1 (en) | 2019-08-06 |
KR20200093424A (ko) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6886202B2 (ja) | 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
JP2020119553A (ja) | ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
JP6870868B2 (ja) | Non−RGBフォーマットを有するイメージの物体に対する物体検出学習に使用され得るように、サイクルGANを使用してRGBトレーニングイメージセットをNon−RGBトレーニングイメージセットに変換して、コンピューティング負荷及びリサイクルデータを顕著に減少させ得る学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP2020038667A (ja) | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP2020123330A (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
US10325179B1 (en) | Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
US10311336B1 (en) | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles | |
US10380724B1 (en) | Learning method and learning device for reducing distortion occurred in warped image generated in process of stabilizing jittered image by using GAN to enhance fault tolerance and fluctuation robustness in extreme situations | |
JP6856957B2 (ja) | 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP2020126622A (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
JP2020119531A (ja) | 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200710 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6886201 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |