JP6856957B2 - 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 - Google Patents

写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 Download PDF

Info

Publication number
JP6856957B2
JP6856957B2 JP2020008618A JP2020008618A JP6856957B2 JP 6856957 B2 JP6856957 B2 JP 6856957B2 JP 2020008618 A JP2020008618 A JP 2020008618A JP 2020008618 A JP2020008618 A JP 2020008618A JP 6856957 B2 JP6856957 B2 JP 6856957B2
Authority
JP
Japan
Prior art keywords
image
test
cnn
main
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020008618A
Other languages
English (en)
Other versions
JP2020123344A (ja
Inventor
ゲヒョン キム
ゲヒョン キム
ヨンジュン キム
ヨンジュン キム
ハクギョン キム
ハクギョン キム
ウンヒョン ナム
ウンヒョン ナム
ソクフン ブ
ソクフン ブ
ミョンチョル ソン
ミョンチョル ソン
ドンス シン
ドンス シン
ドンフン ヨ
ドンフン ヨ
ウジュ リュ
ウジュ リュ
ミョンチユン イ
ミョンチユン イ
ヒョンス イ
ヒョンス イ
テウン ジャン
テウン ジャン
ギョンジュン ジョン
ギョンジュン ジョン
ホンモ ジェ
ホンモ ジェ
ホジン ジョ
ホジン ジョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020123344A publication Critical patent/JP2020123344A/ja
Application granted granted Critical
Publication of JP6856957B2 publication Critical patent/JP6856957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0418Architecture, e.g. interconnection topology using chaos or fractal principles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Description

本発明は、自律走行車両とともに使用するための方法及び装置に関し、より具体的にバーチャル世界で学習されたCNNがリアル世界で使用され得るようにする学習方法及び学習装置、そしてこれを利用したテスト装置に関する。
ディープコンボリューションニューラルネットワーク(Deep Convolution Neural Network or Deep CNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解決するために90年代にも使用されていたが、近年になって機械学習(Machine Learning)分野で広く使用されるようになった。例えば、CNNは、2012年にイメージ認識コンテスト(ImageNet Large Scale Visual Recognition Challenge)で他の競争相手に勝って優勝を収めた。その後、CNNは、機械学習分野で非常に有用なツールとして使用されるようになった。
最近、CNNは自律走行分野で多様に使用されている。CNNは、自律走行分野でそれ自体の入力イメージを処理することによって、物体検出、セマンティックセグメンテーション、余裕空間の検出などを遂行することができる。ここで、CNNがこのような機能を遂行するためには、莫大な量の学習セットが必要である。
このような方式の問題点は、自律走行分野でCNNを使用して前述した学習セットを作成するのに費用がかなりかかるということである。また、学習セットを生成するためには、学習イメージは自動的に取得され得るが、これに対応する原本正解は人によって手動で生成されなければならないため、費用がかなりかかるのである。
このような問題点を克服するための代案が仮想運転である。プログラミングされたコンピュータを利用してバーチャル世界をシミュレーションし、学習イメージとそれに対応する原本正解とをいずれも自動的に取得することができるので、費用をかなり節減し得る長所がある。
しかしながら、この方法もやはり、バーチャル世界で取得した学習イメージがリアル世界のイメージと異なるため、バーチャル世界で学習されたCNNに対する信頼性が担保されない問題がある。
本発明は、前述した問題点を解決することを目的とする。
本発明は、写真スタイル変換を使用してランタイム入力変換のための学習方法を提供することによって、バーチャル世界で学習されたCNNがリアル世界で使用され得るようにすることを他の目的とする。
本発明は、バーチャル世界から取得した仮想イメージとテストに使用されるイメージとして同一のスタイルのリアルイメージとを学習イメージとして使用する学習方法を提供することをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)を学習する方法において、(a)学習装置が、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得する段階;及び(b)前記学習装置が、(b1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(b2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行させる段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(b2)段階は、(b21)前記学習装置が、前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上の特定スタイル特徴マップを生成し、(ii)前記第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上の特定コンテンツ特徴マップを生成する段階;(b22)前記学習装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、ノイズイメージに前記支援CNN演算を適用することによって一つ以上の第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第1アップデート特徴マップを使用して、少なくとも一つの第1アップデートロスを生成させ、(ii−2)前記第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つの第1アップデートイメージを生成させる段階;(b23)前記学習装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上の第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第Kアップデート特徴マップを使用して、少なくとも一つの第Kアップデートロスを生成させ、(ii−2)前記第Kアップデートロスを通じて前記第(K−1)イメージをアップデートすることによって少なくとも一つの第Kアップデートイメージを生成させる段階;及び(b24)前記学習装置が、前記(b22)段階及び前記(b23)段階を遂行して生成された第Nアップデートイメージを特定の第2学習イメージとして出力する段階;を含み、ここでKは1ないしNの整数(integer)であることを特徴とする方法が提供される。
一実施例において、前記(b22)段階は、前記学習装置が、前記支援ロスレイヤをもって、(i)前記第1アップデート特徴マップと前記特定スタイル特徴マップとを使用して一つ以上の第1スタイルロスを生成するプロセス、及び(ii)前記第1アップデート特徴マップと前記特定コンテンツ特徴マップとを使用して一つ以上の第1コンテンツロスを生成するプロセスを遂行させることによって、前記第1スタイルロス及び前記第1コンテンツロスを含む前記第1アップデートロスを生成させることを特徴とする方法が提供される。
一実施例において、前記(b22)段階は、前記学習装置が、前記支援ロスレイヤをもって、最急降下法(gradient−descent scheme)で前記第1アップデートロスを使用して前記ノイズイメージをアップデートさせることによって、(i)前記第1アップデートイメージのスタイル特性を前記ノイズイメージのスタイル特性より前記特定の第1ベースイメージのスタイル特性とさらに類似させ、(ii)前記第1アップデートイメージのコンテンツ特性を前記ノイズイメージのコンテンツ特性より前記特定の第2ベースイメージのコンテンツ特性とさらに類似させることを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記学習装置が、(i)前記メインCNNをもって、前記第1学習イメージの特定の個数と、これに対応する前記第1原本正解自律走行ソース情報とを使用して前記パラメータを学習することによって前記第1学習プロセスを遂行し、(ii)前記メインCNNをもって、前記第2学習イメージと、これに対応する前記第2原本正解自律走行ソース情報とを使用して前記パラメータを微調整することによって前記第2学習プロセスを遂行することを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記学習装置が、(i)前記メインCNNをもって、(i−1)管理者により予め設定された特定の数に対する特定の第1学習イメージの数の割合による前記第1学習イメージのうち一つ以上の特定の第1学習イメージ、及び(i−2)これに対応する前記第1原本正解自律走行ソース情報の一部を使用して、前記パラメータを初期に学習することによって前記第1学習プロセスを遂行させた後、前記学習装置が、(ii)前記メインCNNをもって、前記第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報とともに前記第2学習イメージ及びこれに対応する前記第2原本正解自律走行ソース情報を共に使用して、前記パラメータを再学習することによって前記第2学習プロセスを遂行させることを特徴とする方法が提供される。
一実施例において 前記(b2)段階は、前記第1ベースイメージは、前記第1学習イメージの中から選択されたイメージであり、前記第2ベースイメージは、前記リアル車両に搭載されている少なくとも一つのカメラを介して前記リアル車両に対応するリアル走行状況を撮影したイメージであり、前記少なくとも一つの第1ベースイメージが一つである場合、前記第2学習イメージそれぞれは、前記第2ベースイメージそれぞれに対応するように生成されることを特徴とする方法が提供される。
一実施例において、前記(b1)段階は、前記学習装置が、(i)前記メインCNNに含まれている前記メインコンボリューションレイヤの一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体のパラメータを使用して、入力された値に少なくとも一つのメインコンボリューションを適用し、(i−2)この出力をそれ自体の次の自律走行ニューロンに伝達するプロセスを繰り返させることによって第1自律走行特徴マップを生成させた後、(ii)前記メインCNNに含まれている前記出力レイヤをもって、前記第1自律走行特徴マップに少なくとも一つの出力演算を適用して前記第1予測自律走行ソース情報を生成させることによって、前記メインCNN演算を前記第1学習イメージに適用することを特徴とする方法が提供される。
本発明の他の態様によると、少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)をテストする方法において、(a)(1)学習装置が、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(2)前記学習装置が、(2−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(2−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行して学習が完了した状態で、テスト装置が、前記支援CNNをもって、(i)テスト用バーチャル世界におけるテスト用仮想車両のテスト用バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ、及び(ii)前記テスト装置と連動して作動するテスト用リアル車両に搭載された少なくとも一つのテスト用カメラを介して取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させる段階;及び(b)前記テスト装置が、前記メインCNNに含まれている前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記テストイメージを参照してテスト用予測自律走行ソース情報を生成させる段階;を含むことを特徴とする方法が提供される。
一実施例において、(c)前記テスト装置が、前記テスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達して、前記テスト用リアル車両の自律走行を支援する段階;をさらに含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階は、(a1)前記テスト装置が、前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記テスト用第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上のテスト用特定スタイル特徴マップを生成するプロセス、及び(ii)前記テスト用第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上のテスト用特定コンテンツ特徴マップを生成するプロセスを遂行させる段階;(a2)前記テスト装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用ノイズイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第1アップデート特徴マップを使用して、少なくとも一つのテスト用第1アップデートロスを生成させ、(ii−2)前記テスト用第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つのテスト用第1アップデートイメージを生成させる段階;(a3)前記テスト装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第Kアップデート特徴マップを使用して、少なくとも一つのテスト用第Kアップデートロスを生成させ、(ii−2)前記テスト用第Kアップデートロスを通じて前記テスト用第(K−1)イメージをアップデートすることによって少なくとも一つのテスト用第Kアップデートイメージを生成させる段階;(a4)前記テスト装置が、前記(a2)段階及び前記(a3)段階を遂行して生成されたテスト用第Nアップデートイメージを前記テストイメージとして出力する段階;を含み、ここでKは1ないしNの整数であることを特徴とする方法が提供される。
一実施例において、前記(b)段階以後に、(d)前記テスト用第2ベースイメージが取得された際に第Tタイミング以後である第T+1タイミングに前記テスト用カメラを介してテスト用追加第2ベースイメージが取得されると、前記テスト装置が、前記支援CNNをもって、(i)前記テスト用第1ベースイメージ及び前記テスト用追加第2ベースイメージを参照して追加テストイメージを生成した後、(ii)前記追加テストイメージを使用してテスト用追加予測自律走行ソース情報を生成させる段階;をさらに含むことを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記テスト装置が、(i)前記メインCNNの前記メインコンボリューションレイヤに含まれている一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体に入力された少なくとも一つの値にそれ自体のパラメータを利用して少なくとも一つのメインコンボリューション演算を適用した後、(i−2)それ自体の次の自律走行コンボリューションニューロンに伝達するプロセスを繰り返させることによってテスト用自律走行特徴マップを生成させた後、(ii)前記メインCNNの前記出力レイヤをもって、前記テスト用自律走行特徴マップに少なくとも一つの出力演算を適用させて前記テスト用予測自律走行ソース情報を生成させることによって前記メインCNN演算を前記テストイメージに適用させることを特徴とする方法が提供される。
本発明のまた他の態様によると、少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)を学習する装置において、各インストラクションを格納する少なくとも一つのメモリと、前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(II)(II−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(II−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行することを特徴とする装置が提供される。
一実施例において、前記(II−2)プロセスは、(II−2−1)前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上の特定スタイル特徴マップを生成し、(ii)前記第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上の特定コンテンツ特徴マップを生成するプロセスと、(II−2−2)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、ノイズイメージに前記支援CNN演算を適用することによって一つ以上の第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第1アップデート特徴マップを使用して、少なくとも一つの第1アップデートロスを生成させ、(ii−2)前記第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つの第1アップデートイメージを生成させるプロセスと、(II−2−3)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上の第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第Kアップデート特徴マップを使用して、少なくとも一つの第Kアップデートロスを生成させ、(ii−2)前記第Kアップデートロスを通じて前記第(K−1)イメージをアップデートすることによって少なくとも一つの第Kアップデートイメージを生成させるプロセスと、(II−2−4)前記(II−2−2)プロセス及び前記(II−2−3)プロセスを遂行して生成された第Nアップデートイメージを特定の第2学習イメージとして出力するプロセスと、を含み、ここでKは1ないしNの整数であることを特徴とする装置が提供される。
一実施例において、前記(II−2−2)プロセスは、前記プロセッサが、前記支援ロスレイヤをもって、(i)前記第1アップデート特徴マップと前記特定スタイル特徴マップとを使用して一つ以上の第1スタイルロスを生成するプロセス、及び(ii)前記第1アップデート特徴マップと前記特定コンテンツ特徴マップとを使用して一つ以上の第1コンテンツロスを生成するプロセスを遂行させることによって前記第1スタイルロス及び前記第1コンテンツロスを含む前記第1アップデートロスを生成させることを特徴とする装置が提供される。
一実施例において、前記(II−2−2)プロセスは、前記プロセッサが、前記支援ロスレイヤをもって、最急降下法(gradient−descent scheme)で前記第1アップデートロスを使用して前記ノイズイメージをアップデートさせることによって、(i)前記第1アップデートイメージのスタイル特性を前記ノイズイメージのスタイル特性より前記特定の第1ベースイメージのスタイル特性とさらに類似させ、(ii)前記第1アップデートイメージのコンテンツ特性を前記ノイズイメージのコンテンツ特性より前記特定の第2ベースイメージのコンテンツ特性とさらに類似させることを特徴とする装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、(i)前記メインCNNをもって、前記第1学習イメージの特定の個数と、これに対応する前記第1原本正解自律走行ソース情報とを使用して前記パラメータを学習することによって前記第1学習プロセスを遂行し、(ii)前記メインCNNをもって、前記第2学習イメージと、これに対応する前記第2原本正解自律走行ソース情報とを使用して前記パラメータを微調整することによって前記第2学習プロセスを遂行することを特徴とする装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、(i)前記メインCNNをもって、(i−1)管理者により予め設定された特定の数に対する特定の第1学習イメージの数の割合による前記第1学習イメージのうち一つ以上の特定の第1学習イメージ、及び(i−2)これに対応する前記第1原本正解自律走行ソース情報の一部を使用して、前記パラメータを初期に学習することによって前記第1学習プロセスを遂行させた後、前記プロセッサが、(ii)前記メインCNNをもって、前記第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報とともに前記第2学習イメージ及びこれに対応する前記第2原本正解自律走行ソース情報を共に使用して、前記パラメータを再学習することによって前記第2学習プロセスを遂行させることを特徴とする装置が提供される。
一実施例において、前記(II−2)プロセスは、前記第1ベースイメージは、前記第1学習イメージの中から選択されたイメージであり、前記第2ベースイメージは、前記リアル車両に搭載された少なくとも一つのカメラを介して前記リアル車両に対応するリアル走行状況を撮影したイメージであり、前記少なくとも一つの第1ベースイメージが一つである場合、前記第2学習イメージそれぞれは、前記第2ベースイメージそれぞれに対応するように生成されることを特徴とする装置が提供される。
一実施例において、前記(II−1)プロセスは、前記プロセッサが、(i)前記メインCNNに含まれている前記メインコンボリューションレイヤの一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体のパラメータを使用して、入力された値に少なくとも一つのメインコンボリューションを適用し、(i−2)この出力をそれ自体の次の自律走行ニューロンに伝達するプロセスを繰り返させることによって第1自律走行特徴マップを生成させた後、(ii)前記メインCNNに含まれている前記出力レイヤをもって、前記第1自律走行特徴マップに少なくとも一つの出力演算を適用して前記第1予測自律走行ソース情報を生成させることによって、前記メインCNN演算を前記第1学習イメージに適用することを特徴とする装置が提供される。
本発明のまた他の態様によると、少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)をテストする装置において、各インストラクションを格納する少なくとも一つのメモリと、前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)(1)予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(2)(2−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセスと、(2−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行して学習が完了した状態で、テスト装置が、前記支援CNNをもって、(i)テスト用バーチャル世界におけるテスト用仮想車両のテスト用バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ、及び(ii)前記テスト装置と連動して作動するテスト用リアル車両に搭載された少なくとも一つのテスト用カメラを介して取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させるプロセスと、(II)前記メインCNNに含まれている前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記テストイメージを参照してテスト用予測自律走行ソース情報を生成させるプロセスと、を遂行することを特徴とする装置が提供される。
一実施例において、前記プロセッサが、(III)前記テスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達して前記テスト用リアル車両の自律走行を支援するプロセスをさらに遂行することを特徴とする装置が提供される。
一実施例において、前記(I)プロセスは、(I−1)前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記テスト用第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上のテスト用特定スタイル特徴マップを生成するプロセス、及び(ii)前記テスト用第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上のテスト用特定コンテンツ特徴マップを生成するプロセスと、(I−2)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用ノイズイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第1アップデート特徴マップを使用して、少なくとも一つのテスト用第1アップデートロスを生成させ、(ii−2)前記テスト用第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つのテスト用第1アップデートイメージを生成させるプロセスと、(I−3)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第Kアップデート特徴マップを使用して、少なくとも一つのテスト用第Kアップデートロスを生成させ、(ii−2)前記テスト用第Kアップデートロスを通じて前記テスト用第(K−1)イメージをアップデートすることによって少なくとも一つのテスト用第Kアップデートイメージを生成させるプロセスと、(I−4)前記(I−2)プロセス及び前記(I−3)プロセスを遂行して生成されたテスト用第Nアップデートイメージを前記テストイメージとして出力するプロセスと、を含み、ここでKは1ないしNの整数であることを特徴とする装置が提供される。
一実施例において、前記(II)プロセス以後に、前記プロセッサが、(IV)前記テスト用第2ベースイメージが取得された際に第Tタイミング以後である第T+1タイミングに前記テスト用カメラを介してテスト用追加第2ベースイメージが取得されると、前記支援CNNをもって、(i)前記テスト用第1ベースイメージ及び前記テスト用追加第2ベースイメージを参照して追加テストイメージを生成した後、(ii)前記追加テストイメージを使用してテスト用追加予測自律走行ソース情報を生成させるプロセスをさらに遂行することを特徴とする装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、(i)前記メインCNNの前記メインコンボリューションレイヤに含まれている一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体に入力された少なくとも一つの値にそれ自体のパラメータを利用して少なくとも一つのメインコンボリューション演算を適用した後、(i−2)それ自体の次の自律走行コンボリューションニューロンに伝達するプロセスを繰り返させることによってテスト用自律走行特徴マップを生成させた後、(ii)前記メインCNNの前記出力レイヤをもって、前記テスト用自律走行特徴マップに少なくとも一つの出力演算を適用させて前記テスト用予測自律走行ソース情報を生成させることによって前記メインCNN演算を前記テストイメージに適用させることを特徴とする装置が提供される。
本発明は、写真スタイル変換を使用してランタイム入力変換のための学習方法を提供することによって、バーチャル世界で学習されたCNNを実際の自律走行に使用され得るようにする効果がある。
また、本発明は、バーチャル世界から取得された仮想イメージとテストに使用されるイメージとして同一のスタイルのリアルイメージとを学習イメージとして使用する学習方法を提供することができる効果がある。
また、本発明は、リアル世界で自律走行を十分に遂行し得るCNNを、少ない費用でも効率的に学習し得るようにする効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法を遂行する学習装置の構成を示した図面である。 図2は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法を示したチャート図である。 図3は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法に使用される第2学習イメージを生成する方式を示した図面である。 図4は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するためのテスト方法を示したチャート図である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述する詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法を遂行する学習装置の構成を示した図面である。
図1を参照すると、学習装置100は、追って詳細に説明する自律走行に使用されるメインCNN130及び支援CNN140を含むことができる。メインCNN130及び支援CNN140の入出力及び演算過程は、それぞれ少なくとも一つの通信部110及び少なくとも一つのプロセッサ120により行われ得る。ただし、図1では、通信部110及びプロセッサ120の具体的な連結関係を省略した。この場合、メモリ115は、後述する様々なインストラクションを格納した状態であり得、プロセッサ120は前記メモリ115に格納された各インストラクションを遂行するように設定され、プロセッサ120は、追って説明する各インストラクションを遂行することによって本発明を遂行することができる。このように、学習装置100が描写されたからといって、学習装置100が本発明を実施するためのミディアム、プロセッサ、及びメモリが統合された形態である統合プロセッサを含む場合を排除するわけではない。
以上、本発明の一実施例によって遂行される学習装置100の構成について考察してみたところ、以下では、学習装置100が遂行する学習方法について説明する。
図2は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法を示したチャート図である。
図2を参照すると、学習装置100は、一つ以上の第1学習イメージのうち少なくとも一部を取得することができる(S01)。以後、学習装置100は、二つのプロセスを並列して遂行することができる。
まず、学習装置100は、メインCNN130をもって、各第1学習イメージを参照して第1予測自律走行ソース情報を生成させることができる(S02−1)。以後、学習装置100は、メインCNN130をもって、第1予測自律走行ソース情報及びこれに対応する第1原本正解自律走行ソース情報を参照して第1自律走行ロスを生成させることができる(S02−2)。そして、学習装置100は、メインCNN130をもって、メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセスを遂行することができる(S02−3)。
第二に、学習装置100は、支援CNN140をもって、少なくとも一つの第1ベースイメージ及び一つ以上の第2ベースイメージを参照して一つ以上の第2学習イメージを生成させることができる(S03−1)。そして、学習装置100は、支援CNN140をもって、各第2学習イメージを参照して第2予測自律走行ソース情報を生成させることができる(S03−2)。以後、学習装置100は、支援CNN140をもって、第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して第2自律走行ロスを生成させることができる(S03−3)。そして、学習装置100は、支援CNN140をもって、第2自律走行ロスを使用してメインCNN130のパラメータのうち少なくとも一部を学習させる第2学習プロセスを遂行することができる(S03−4)。
以下、前述した第1学習プロセス及び第2学習プロセスについてさらに具体的に説明することにする。
第1学習プロセスと関連して、学習装置100は、メインCNN130に含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する各第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させることができる。ここで、各第1学習イメージは、プログラミングされたコンピュータによりシミュレーションされたバーチャル世界をバーチャル走行中である仮想車両の観点から撮影することによって取得され得る。したがって、これらのイメージは、前記各リアルイメージに比べて彩度が高く、対比が大きく、物体のディテールが相対的に省略されており、光線の経路が多少非現実的である特性を有するイメージであり得る。第1予測自律走行ソース情報は、追って説明するテスト段階における自律走行アプリケーションモジュールに伝達される情報であって、自律走行を行うにおいて基本となるリファレンス情報を意味し得る。一例として、自律走行ソース情報は、第1学習イメージに対するセグメンテーション情報を含むことができ、また、その他の例として、第1学習イメージに対する物体検出情報を含むことができる。ただし、本発明は、これに限定されるわけではない。
このような第1予測自律走行ソース情報を生成するために、学習装置100は、メインCNN130のコンボリューションレイヤに含まれている一つ以上の自律走行コンボリューションニューロンをもって、(i−1)それ自体のパラメータを使用して、入力された値に少なくとも一つのメインコンボリューションを適用し、(i−2)この出力をそれ自体の次の自律走行ニューロンに伝達するプロセスを繰り返させることによって、第1自律走行特徴マップを生成させることができる。以後、学習装置100は、前記メインCNNに含まれている前記出力レイヤをもって、前記第1自律走行特徴マップに少なくとも一つの出力演算を適用して前記第1予測自律走行ソース情報を生成させることができる。ここで、前述した一例にしたがって、第1予測自律走行ソース情報がセグメンテーション情報を含む場合、出力レイヤは、デコンボリューションレイヤの形態をし、出力演算はデコンボリューション演算であり得る。前述したその他の例にしたがって、第1予測自律走行ソース情報が物体検出情報を含む場合、出力レイヤはプーリングレイヤ及びFC(Fully−Connected)レイヤを含むことができ、出力演算はプーリング演算及びFC演算であり得る。
以上、第1学習プロセスについて説明したところ、以下において第2学習プロセスについて説明することにする。
第2学習プロセスは、第2学習イメージと関連がある。そして、第2学習イメージは、第1ベースイメージ及び第2ベースイメージを使用して支援CNN140により生成されるようになる。ここで、第1ベースイメージとは、第1学習イメージに対応するもの、つまりバーチャル世界のイメージであり得、第2ベースイメージは、リアル世界における実際車両のリアル走行の間に取得されたイメージに対応し得る。一例として、第1ベースイメージは、第1学習イメージの中から選択されたものであり得、第2ベースイメージは、リアル車両に搭載されたカメラを介して取得した各リアル走行状況に対するイメージのうち一つが選択されたものであり得る。ここで、第1ベースイメージが一つのみ選択された場合、第2学習イメージそれぞれは第2ベースイメージそれぞれに対応し得る。
このような第1ベースイメージ及び第2ベースイメージが取得された後、学習装置100は、支援CNN140に含まれている支援コンボリューションレイヤをもって、(i)前記第1特定ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上の特定スタイル特徴マップを生成し、(ii)前記第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上の特定コンテンツ特徴マップを生成するプロセスを遂行させることができる。ここで、両プロセスは独立したものであって、並列して遂行され得る。特定スタイル特徴マップ及び特定コンテンツ特徴マップそれぞれは追って説明するが、それぞれ生成される特定の第2学習イメージのスタイル及びその内容に対するリファレンスとなる特徴マップであり得る。
以後、学習装置100は、支援CNN140に含まれている支援コンボリューションレイヤをもって、ノイズイメージに前記支援CNN演算を適用することによって一つ以上の第1アップデート特徴マップを生成させた後、前記支援CNNに含まれている支援ロスレイヤをもって、前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第1アップデート特徴マップを使用して、少なくとも一つの第1アップデートロスを生成させることができる。ここで、ノイズイメージは、特定の第2学習イメージを生成するために使用される背景イメージであり得る。つまり、絵を描く際に使用するキャンバスのようなイメージである。
具体的に、学習装置100は、支援ロスレイヤをもって、(i)前記第1アップデート特徴マップと前記特定スタイル特徴マップとを使用して一つ以上の第1スタイルロスを生成するプロセス、及び(ii)前記第1アップデート特徴マップと前記特定コンテンツ特徴マップとを使用して一つ以上の第1コンテンツロスを生成するプロセスを遂行させることができる。以後、学習装置100は、前記第1スタイルロス及び前記第1コンテンツロスを合わせて、前記第1アップデートロスを生成させることができる。ここで、第1スタイルロスを生成するために、支援ロスレイヤは、第1アップデート特徴マップにスタイル演算を適用して第1変形アップデート特徴マップを生成した後、第1変形アップデート特徴マップと特定スタイル特徴マップとの間の差を計算することができる。また、第1コンテンツロスを生成するために、支援ロスレイヤは、第1アップデート特徴マップと特定コンテンツ特徴マップとの間の差を計算することができる。
以後、学習装置100は、支援ロスレイヤをもって、第1アップデートロスを使用してノイズイメージをアップデートすることによって少なくとも一つの第1アップデートイメージを生成させることができる。具体的には、支援ロスレイヤをもって、最急降下法(gradient−descent scheme)で前記第1アップデートロスを使用して前記ノイズイメージをアップデートすることができる。このようなアップデートプロセスを遂行することによって、前記第1アップデートイメージのスタイル特性は、前記ノイズイメージのスタイル特性より前記特定の第1ベースイメージのスタイル特性とさらに類似するようになり得る。また、前記第1アップデートイメージのコンテンツ特性は、前記ノイズイメージのコンテンツ特性より前記特定の第2ベースイメージのコンテンツ特性とさらに類似するようになり得る。
支援CNNにより遂行される前記プロセスをより具体的に説明するために、図3を参照することにする。
図3は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するための学習方法に使用される第2学習イメージを生成する方式を示した図面である。
図3を参照すると、第1アップデート特徴マップのうち一つ301と特定スタイル特徴マップのうち一つ302との間の差が計算されることによって、第1スタイルロスのうち一つが生成されたことが分かり、第1アップデート特徴マップのうち一つ301と特定コンテンツ特徴マップのうち一つ303との間の差が計算されることによって第1コンテンツロスのうちの一つが生成されたことが分かる。また、第1アップデートロスを利用してノイズイメージがアップデートされたことを確認することができる。
以上と同一の過程を遂行して、第1アップデートイメージをアップデートして第2アップデートイメージが生成され得、第2アップデートイメージをアップデートして第3アップデートイメージが生成され得、さらには第Nアップデートイメージが生成され得、これを特定の第2学習イメージとして出力することができる。ここで、Nは予め設定された整数(integer)である。より具体的に、学習装置100が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上の第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第Kアップデート特徴マップを使用して、少なくとも一つの第Kアップデートロスを生成させ、(ii−2)前記第Kアップデートロスを通じて前記第(K−1)イメージをアップデートすることによって少なくとも一つの第Kアップデートイメージを生成させることができる。ここで、Kは1ないしNの整数である。
このような特定の第2学習イメージの生成方式は、一般的である絵をゴッホの絵画スタイルに変えた実験結果として有名になったGatys et al.の2016年の論文「Image Style Transfer Using Convolutional Neural Networks」と類似しているところ、通常の技術者は、当該論文を参照して前記説明を容易に理解することができるであろう。
このように特定の第2学習イメージを含む第2学習イメージが生成されると、第1学習イメージと同様にメインCNN130を学習するのに使用され得る。簡略に第2学習プロセスとして、学習装置100は、(i)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(ii)前記メインCNNに含まれている前記メインロスレイヤをもって、(ii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(ii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる。このような第2学習プロセスは、第1学習プロセスと類似するため、さらに詳細な説明は省略することにする。
以上、第1学習プロセス及び第2学習プロセスについて説明したところ、以下、第1学習プロセスと第2学習プロセスとがどのような方式で互いに連動して遂行され得るのかについて説明することにする。
まず、一実施例によると、第1学習プロセス及び第2学習プロセスは同時に行われ得る。すなわち、第1学習イメージが取得された後、第2学習イメージが生成されると、この二種類の学習イメージはメインCNN130のパラメータのうち少なくとも一部を学習するのに使用され得る。
その他の実施例によると、第1学習プロセスを先に遂行してメインCNN130のパラメータのうち少なくとも一部を学習した後、第2学習プロセスを遂行することによってパラメータを微調整することもできる。つまり、学習装置100は、(i)前記メインCNNをもって、前記第1学習イメージの特定の個数と、これに対応する前記第1原本正解自律走行ソース情報とを使用して前記パラメータを学習することによって前記第1学習プロセスを遂行し、(ii)前記メインCNNをもって、前記第2学習イメージと、これに対応する前記第2原本正解自律走行ソース情報とを使用して、前記パラメータを微調整することによって前記第2学習プロセスを遂行させることができる。
または、さらに他の実施例によると、第1学習プロセスは、第1学習イメージを一部使用してパラメータのうち少なくとも一部を初期に学習した後、そして第2学習プロセスは、第1学習イメージ及び第2学習イメージをともに使用してパラメータのうち少なくとも一部を再学習することもできる。すなわち、学習装置100が、メインCNN130をもって、前記第1学習イメージのうち一つ以上の特定の第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報の一部を使用して、前記パラメータを初期に学習することによって前記第1学習プロセスを遂行させた後、前記メインCNNをもって、前記第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報とともに前記第2学習イメージ及びこれに対応する前記第2原本正解自律走行ソース情報を共に使用して、前記パラメータを再学習することによって前記第2学習プロセスを遂行させることができる。
以上の過程を経て学習が完了したメインCNN130がどのようにテストされるのかについて、以下に図4を参照して説明することにする。
図4は、本発明の一実施例にしたがって、写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習された自律走行用CNNを許容するためのテスト方法を示したチャート図である。
図4を参照すると、本発明のテスト方法は、(i)バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ及びリアルタイムに取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させる段階;及び(ii)テストイメージを学習されたメインCNN130に入力して、その出力、すなわちテスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達する構成であることを確認することができる。以下、これについてさらに具体的に説明することにする。
すなわち、(1)学習装置が、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(2)前記学習装置が、(2−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(2−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行して学習が完了した状態で、テスト装置が、前記支援CNNをもって、(i)テスト用バーチャル世界におけるテスト用仮想車両のテスト用バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ、及び(ii)前記テスト装置と連動して作動するテスト用リアル車両に搭載された少なくとも一つのテスト用カメラを介して取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させることができる。
以後、前記テスト装置が、前記メインCNNに含まれている前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記テストイメージを参照してテスト用予測自律走行ソース情報を生成させることができる。
そして、テスト装置が、テスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達することによって、前記テスト用リアル車両の自律走行を支援することができる。この際、自律走行アプリケーションモジュールは、テストイメージに対するイメージセグメンテーション情報または物体検出情報を使用して自律走行を使用するモジュールであり得るが、これは本発明の主たる範囲にあるものではないので、詳細な説明は省略することにする。
テスト方法を遂行する場合は、学習方法を遂行する場合とは異なり、そのレイテンシ(latency)が非常に重要である。したがって、単数であるテスト用第1ベースイメージは固定され得、リアルタイムでテスト用カメラを介してイメージが取得されるたびにこれをテスト用第2ベースイメージとして支援CNN140に入力することができる。つまり、テスト装置は、前記テスト用第2ベースイメージが取得された際に第Tタイミング以後である第T+1タイミングに前記テスト用カメラを介してテスト用追加第2ベースイメージが取得されると、前記テスト装置が、前記支援CNNをもって、(i)前記テスト用第1ベースイメージ及び前記テスト用追加第2ベースイメージを参照して追加テストイメージを生成した後、(ii)前記追加テストイメージを使用してテスト用追加予測自律走行ソース情報を生成させることができる。
以上の方法により、本発明は、ラベリング費用を節減しながらも、高い自律走行性能を示す自律走行車両を提供することが可能となる。
以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (26)

  1. 少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)を学習する方法において、
    (a)学習装置が、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得する段階;及び
    (b)前記学習装置が、(b1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(b2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行させる段階;
    を含むことを特徴とする方法。
  2. 前記(b2)段階は、
    (b21)前記学習装置が、前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上の特定スタイル特徴マップを生成し、(ii)前記第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上の特定コンテンツ特徴マップを生成する段階;
    (b22)前記学習装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、ノイズイメージに前記支援CNN演算を適用することによって一つ以上の第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第1アップデート特徴マップを使用して、少なくとも一つの第1アップデートロスを生成させ、(ii−2)前記第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つの第1アップデートイメージを生成させる段階;
    (b23)前記学習装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上の第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第Kアップデート特徴マップを使用して、少なくとも一つの第Kアップデートロスを生成させ、(ii−2)前記第Kアップデートロスを通じて前記第(K−1)イメージをアップデートすることによって少なくとも一つの第Kアップデートイメージを生成させる段階;及び
    (b24)前記学習装置が、前記(b22)段階及び前記(b23)段階を遂行して生成された第Nアップデートイメージを特定の第2学習イメージとして出力する段階;
    を含み、ここでKは1ないしNの整数(integer)であることを特徴とする請求項1に記載の方法。
  3. 前記(b22)段階は、前記学習装置が、前記支援ロスレイヤをもって、(i)前記第1アップデート特徴マップと前記特定スタイル特徴マップとを使用して一つ以上の第1スタイルロスを生成するプロセス、及び(ii)前記第1アップデート特徴マップと前記特定コンテンツ特徴マップとを使用して一つ以上の第1コンテンツロスを生成するプロセスを遂行させることによって、前記第1スタイルロス及び前記第1コンテンツロスを含む前記第1アップデートロスを生成させることを特徴とする請求項2に記載の方法。
  4. 前記(b22)段階は、
    前記学習装置が、前記支援ロスレイヤをもって、最急降下法(gradient−descent scheme)で前記第1アップデートロスを使用して前記ノイズイメージをアップデートさせることによって、(i)前記第1アップデートイメージのスタイル特性を前記ノイズイメージのスタイル特性より前記特定の第1ベースイメージのスタイル特性とさらに類似させ、(ii)前記第1アップデートイメージのコンテンツ特性を前記ノイズイメージのコンテンツ特性より前記特定の第2ベースイメージのコンテンツ特性とさらに類似させることを特徴とする請求項2に記載の方法。
  5. 前記(b)段階は、
    前記学習装置が、(i)前記メインCNNをもって、前記第1学習イメージの特定の個数と、これに対応する前記第1原本正解自律走行ソース情報とを使用して前記パラメータを学習することによって前記第1学習プロセスを遂行し、(ii)前記メインCNNをもって、前記第2学習イメージと、これに対応する前記第2原本正解自律走行ソース情報とを使用して前記パラメータを微調整することによって前記第2学習プロセスを遂行することを特徴とする請求項1に記載の方法。
  6. 前記(b)段階は、
    前記学習装置が、(i)前記メインCNNをもって、(i−1)管理者により予め設定された特定の数に対する特定の第1学習イメージの数の割合による前記第1学習イメージのうち一つ以上の特定の第1学習イメージ、及び(i−2)これに対応する前記第1原本正解自律走行ソース情報の一部を使用して、前記パラメータを初期に学習することによって前記第1学習プロセスを遂行させた後、
    前記学習装置が、(ii)前記メインCNNをもって、前記第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報とともに前記第2学習イメージ及びこれに対応する前記第2原本正解自律走行ソース情報を共に使用して、前記パラメータを再学習することによって前記第2学習プロセスを遂行させることを特徴とする請求項1に記載の方法。
  7. 前記(b2)段階は、
    前記第1ベースイメージは、前記第1学習イメージの中から選択されたイメージであり、前記第2ベースイメージは、前記リアル車両に搭載されている少なくとも一つのカメラを介して前記リアル車両に対応するリアル走行状況を撮影したイメージであり、前記少なくとも一つの第1ベースイメージが一つである場合、前記第2学習イメージそれぞれは、前記第2ベースイメージそれぞれに対応するように生成されることを特徴とする請求項1に記載の方法。
  8. 前記(b1)段階は、
    前記学習装置が、(i)前記メインCNNに含まれている前記メインコンボリューションレイヤの一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体のパラメータを使用して、入力された値に少なくとも一つのメインコンボリューションを適用し、(i−2)この出力をそれ自体の次の自律走行ニューロンに伝達するプロセスを繰り返させることによって第1自律走行特徴マップを生成させた後、(ii)前記メインCNNに含まれている前記出力レイヤをもって、前記第1自律走行特徴マップに少なくとも一つの出力演算を適用して前記第1予測自律走行ソース情報を生成させることによって、前記メインCNN演算を前記第1学習イメージに適用することを特徴とする請求項1に記載の方法。
  9. 少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)をテストする方法において、
    (a)(1)学習装置が、予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(2)前記学習装置が、(2−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(2−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行して学習が完了した状態で、テスト装置が、前記支援CNNをもって、(i)テスト用バーチャル世界におけるテスト用仮想車両のテスト用バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ、及び(ii)前記テスト装置と連動して作動するテスト用リアル車両に搭載された少なくとも一つのテスト用カメラを介して取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させる段階;及び
    (b)前記テスト装置が、前記メインCNNに含まれている前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記テストイメージを参照してテスト用予測自律走行ソース情報を生成させる段階;
    を含むことを特徴とする方法。
  10. (c)前記テスト装置が、前記テスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達して、前記テスト用リアル車両の自律走行を支援する段階;
    をさらに含むことを特徴とする請求項9に記載の方法。
  11. 前記(a)段階は、
    (a1)前記テスト装置が、前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記テスト用第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上のテスト用特定スタイル特徴マップを生成するプロセス、及び(ii)前記テスト用第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上のテスト用特定コンテンツ特徴マップを生成するプロセスを遂行させる段階;
    (a2)前記テスト装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用ノイズイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第1アップデート特徴マップを使用して、少なくとも一つのテスト用第1アップデートロスを生成させ、(ii−2)前記テスト用第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つのテスト用第1アップデートイメージを生成させる段階;
    (a3)前記テスト装置が、(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第Kアップデート特徴マップを使用して、少なくとも一つのテスト用第Kアップデートロスを生成させ、(ii−2)前記テスト用第Kアップデートロスを通じて前記テスト用第(K−1)イメージをアップデートすることによって少なくとも一つのテスト用第Kアップデートイメージを生成させる段階;
    (a4)前記テスト装置が、前記(a2)段階及び前記(a3)段階を遂行して生成されたテスト用第Nアップデートイメージを前記テストイメージとして出力する段階;
    を含み、ここでKは1ないしNの整数であることを特徴とする請求項9に記載の方法。
  12. 前記(b)段階以後に、
    (d)前記テスト用第2ベースイメージが取得された際に第Tタイミング以後である第T+1タイミングに前記テスト用カメラを介してテスト用追加第2ベースイメージが取得されると、前記テスト装置が、前記支援CNNをもって、(i)前記テスト用第1ベースイメージ及び前記テスト用追加第2ベースイメージを参照して追加テストイメージを生成した後、(ii)前記追加テストイメージを使用してテスト用追加予測自律走行ソース情報を生成させる段階;
    をさらに含むことを特徴とする請求項9に記載の方法。
  13. 前記(b)段階は、
    前記テスト装置が、(i)前記メインCNNの前記メインコンボリューションレイヤに含まれている一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体に入力された少なくとも一つの値にそれ自体のパラメータを利用して少なくとも一つのメインコンボリューション演算を適用した後、(i−2)それ自体の次の自律走行コンボリューションニューロンに伝達するプロセスを繰り返させることによってテスト用自律走行特徴マップを生成させた後、(ii)前記メインCNNの前記出力レイヤをもって、前記テスト用自律走行特徴マップに少なくとも一つの出力演算を適用させて前記テスト用予測自律走行ソース情報を生成させることによって前記メインCNN演算を前記テストイメージに適用させることを特徴とする請求項9に記載の方法。
  14. 少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)を学習する装置において、
    各インストラクションを格納する少なくとも一つのメモリと、
    前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(II)(II−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(II−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行することを特徴とする装置。
  15. 前記(II−2)プロセスは、
    (II−2−1)前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上の特定スタイル特徴マップを生成し、(ii)前記第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上の特定コンテンツ特徴マップを生成するプロセス;
    (II−2−2)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、ノイズイメージに前記支援CNN演算を適用することによって一つ以上の第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第1アップデート特徴マップを使用して、少なくとも一つの第1アップデートロスを生成させ、(ii−2)前記第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つの第1アップデートイメージを生成させるプロセス;
    (II−2−3)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上の第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記特定スタイル特徴マップ及び前記特定コンテンツ特徴マップとともに前記第Kアップデート特徴マップを使用して、少なくとも一つの第Kアップデートロスを生成させ、(ii−2)前記第Kアップデートロスを通じて前記第(K−1)イメージをアップデートすることによって少なくとも一つの第Kアップデートイメージを生成させるプロセス;及び
    (II−2−4)前記(II−2−2)プロセス及び前記(II−2−3)プロセスを遂行して生成された第Nアップデートイメージを特定の第2学習イメージとして出力するプロセス;
    を含み、ここでKは1ないしNの整数であることを特徴とする請求項14に記載の装置。
  16. 前記(II−2−2)プロセスは、
    前記プロセッサが、前記支援ロスレイヤをもって、(i)前記第1アップデート特徴マップと前記特定スタイル特徴マップとを使用して一つ以上の第1スタイルロスを生成するプロセス、及び(ii)前記第1アップデート特徴マップと前記特定コンテンツ特徴マップとを使用して一つ以上の第1コンテンツロスを生成するプロセスを遂行させることによって前記第1スタイルロス及び前記第1コンテンツロスを含む前記第1アップデートロスを生成させることを特徴とする請求項15に記載の装置。
  17. 前記(II−2−2)プロセスは、
    前記プロセッサが、前記支援ロスレイヤをもって、最急降下法(gradient−descent scheme)で前記第1アップデートロスを使用して前記ノイズイメージをアップデートさせることによって、(i)前記第1アップデートイメージのスタイル特性を前記ノイズイメージのスタイル特性より前記特定の第1ベースイメージのスタイル特性とさらに類似させ、(ii)前記第1アップデートイメージのコンテンツ特性を前記ノイズイメージのコンテンツ特性より前記特定の第2ベースイメージのコンテンツ特性とさらに類似させることを特徴とする請求項15に記載の装置。
  18. 前記(II)プロセスは、
    前記プロセッサが、(i)前記メインCNNをもって、前記第1学習イメージの特定の個数と、これに対応する前記第1原本正解自律走行ソース情報とを使用して前記パラメータを学習することによって前記第1学習プロセスを遂行し、(ii)前記メインCNNをもって、前記第2学習イメージと、これに対応する前記第2原本正解自律走行ソース情報とを使用して前記パラメータを微調整することによって前記第2学習プロセスを遂行することを特徴とする請求項14に記載の装置。
  19. 前記(II)プロセスは、
    前記プロセッサが、(i)前記メインCNNをもって、(i−1)管理者により予め設定された特定の数に対する特定の第1学習イメージの数の割合による前記第1学習イメージのうち一つ以上の特定の第1学習イメージ、及び(i−2)これに対応する前記第1原本正解自律走行ソース情報の一部を使用して、前記パラメータを初期に学習することによって前記第1学習プロセスを遂行させた後、
    前記プロセッサが、(ii)前記メインCNNをもって、前記第1学習イメージ及びこれに対応する前記第1原本正解自律走行ソース情報とともに前記第2学習イメージ及びこれに対応する前記第2原本正解自律走行ソース情報を共に使用して、前記パラメータを再学習することによって前記第2学習プロセスを遂行させることを特徴とする請求項14に記載の装置。
  20. 前記(II−2)プロセスは、
    前記第1ベースイメージは、前記第1学習イメージの中から選択されたイメージであり、前記第2ベースイメージは、前記リアル車両に搭載された少なくとも一つのカメラを介して前記リアル車両に対応するリアル走行状況を撮影したイメージであり、前記少なくとも一つの第1ベースイメージが一つである場合、前記第2学習イメージそれぞれは、前記第2ベースイメージそれぞれに対応するように生成されることを特徴とする請求項14に記載の装置。
  21. 前記(II−1)プロセスは、
    前記プロセッサが、(i)前記メインCNNに含まれている前記メインコンボリューションレイヤの一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体のパラメータを使用して、入力された値に少なくとも一つのメインコンボリューションを適用し、(i−2)この出力をそれ自体の次の自律走行ニューロンに伝達するプロセスを繰り返させることによって第1自律走行特徴マップを生成させた後、(ii)前記メインCNNに含まれている前記出力レイヤをもって、前記第1自律走行特徴マップに少なくとも一つの出力演算を適用して前記第1予測自律走行ソース情報を生成させることによって、前記メインCNN演算を前記第1学習イメージに適用することを特徴とする請求項14に記載の装置。
  22. 少なくとも一つの仮想イメージ及び少なくとも一つのスタイル変換リアルイメージ(前記スタイル変換リアルイメージは、少なくとも一つのリアルイメージを予め設定されたバーチャル世界のイメージスタイルに変換したものである)を使用して、自律走行を遂行するために使用されるメインCNN(Convolutional Neural Network)をテストする装置において、
    各インストラクションを格納する少なくとも一つのメモリと、
    前記各インストラクションを遂行するように設定された少なくとも一つのプロセッサとを含み、前記プロセッサは、(I)(1)予め設定されたバーチャル世界における仮想車両のバーチャル走行に対応する一つ以上の第1学習イメージの少なくとも一部を取得し、(2)(2−1)(i)前記メインCNNに含まれている、メインコンボリューションレイヤ及び出力レイヤをもって、前記第1学習イメージを参照して一つ以上の第1予測自律走行ソース情報を生成させ、(ii)前記メインCNNに含まれているメインロスレイヤをもって、(ii−1)前記第1予測自律走行ソース情報及びこれに対応する第1原本正解(Ground−Truth)自律走行ソース情報を参照して、一つ以上の第1メインロスを生成させた後、(ii−2)前記第1メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第1学習プロセス;及び(2−2)(i)支援CNNをもって、前記第1学習イメージに対応する少なくとも一つの第1ベースイメージ及びリアル世界における実際車両のリアル走行に対応する一つ以上の第2ベースイメージを参照して、一つ以上の第2学習イメージを生成させ、(ii)前記メインCNNに含まれている、前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記第2学習イメージを参照して、一つ以上の第2予測自律走行ソース情報を生成させた後、(iii)前記メインCNNに含まれている前記メインロスレイヤをもって、(iii−1)前記第2予測自律走行ソース情報及びこれに対応する第2原本正解自律走行ソース情報を参照して、一つ以上の第2メインロスを生成させた後、(iii−2)前記第2メインロスを使用してバックプロパゲーションを遂行することによって、前記メインCNNのパラメータの少なくとも一部を学習させる第2学習プロセスを遂行して学習が完了した状態で、テスト装置が、前記支援CNNをもって、(i)テスト用バーチャル世界におけるテスト用仮想車両のテスト用バーチャル走行に対応する少なくとも一つのテスト用第1ベースイメージ、及び(ii)前記テスト装置と連動して作動するテスト用リアル車両に搭載された少なくとも一つのテスト用カメラを介して取得された少なくとも一つのテスト用第2ベースイメージを参照してテストイメージを生成させるプロセス;及び(II)前記メインCNNに含まれている前記メインコンボリューションレイヤ及び前記出力レイヤをもって、前記テストイメージを参照してテスト用予測自律走行ソース情報を生成させるプロセス;
    を遂行することを特徴とする装置。
  23. 前記プロセッサが、(III)前記テスト用予測自律走行ソース情報を自律走行アプリケーションモジュールに伝達して前記テスト用リアル車両の自律走行を支援するプロセス;
    をさらに遂行することを特徴とする請求項22に記載の装置。
  24. 前記(I)プロセスは、
    (I−1)前記支援CNNに含まれている支援コンボリューションレイヤをもって、(i)前記テスト用第1ベースイメージに少なくとも一つの支援CNN演算を適用することによって一つ以上のテスト用特定スタイル特徴マップを生成するプロセス、及び(ii)前記テスト用第2ベースイメージのうち特定の第2ベースイメージに前記支援CNN演算を適用することによって一つ以上のテスト用特定コンテンツ特徴マップを生成するプロセス;
    (I−2)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用ノイズイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第1アップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第1アップデート特徴マップを使用して、少なくとも一つのテスト用第1アップデートロスを生成させ、(ii−2)前記テスト用第1アップデートロスを通じて前記ノイズイメージをアップデートすることによって少なくとも一つのテスト用第1アップデートイメージを生成させるプロセス;
    (I−3)(i)前記支援CNNに含まれている前記支援コンボリューションレイヤをもって、テスト用第(K−1)アップデートイメージに前記支援CNN演算を適用することによって一つ以上のテスト用第Kアップデート特徴マップを生成させた後、(ii)前記支援CNNに含まれている前記支援ロスレイヤをもって、(ii−1)前記テスト用特定スタイル特徴マップ及び前記テスト用特定コンテンツ特徴マップとともに前記テスト用第Kアップデート特徴マップを使用して、少なくとも一つのテスト用第Kアップデートロスを生成させ、(ii−2)前記テスト用第Kアップデートロスを通じて前記テスト用第(K−1)イメージをアップデートすることによって少なくとも一つのテスト用第Kアップデートイメージを生成させるプロセス;
    (I−4)前記(I−2)プロセス及び前記(I−3)プロセスを遂行して生成されたテスト用第Nアップデートイメージを前記テストイメージとして出力するプロセス;
    を含み、ここでKは1ないしNの整数であることを特徴とする請求項22に記載の装置。
  25. 前記(II)プロセス以後に、
    前記プロセッサが、(IV)前記テスト用第2ベースイメージが取得された際に第Tタイミング以後である第T+1タイミングに前記テスト用カメラを介してテスト用追加第2ベースイメージが取得されると、前記支援CNNをもって、(i)前記テスト用第1ベースイメージ及び前記テスト用追加第2ベースイメージを参照して追加テストイメージを生成した後、(ii)前記追加テストイメージを使用してテスト用追加予測自律走行ソース情報を生成させるプロセスをさらに遂行することを特徴とする請求項22に記載の装置。
  26. 前記(II)プロセスは、
    前記プロセッサが、(i)前記メインCNNの前記メインコンボリューションレイヤに含まれている一つ以上のメインコンボリューションニューロンをもって、(i−1)それ自体に入力された少なくとも一つの値にそれ自体のパラメータを利用して少なくとも一つのメインコンボリューション演算を適用した後、(i−2)それ自体の次の自律走行コンボリューションニューロンに伝達するプロセスを繰り返させることによってテスト用自律走行特徴マップを生成させた後、(ii)前記メインCNNの前記出力レイヤをもって、前記テスト用自律走行特徴マップに少なくとも一つの出力演算を適用させて前記テスト用予測自律走行ソース情報を生成させることによって前記メインCNN演算を前記テストイメージに適用させることを特徴とする請求項22に記載の装置。
JP2020008618A 2019-01-30 2020-01-22 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 Active JP6856957B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798837P 2019-01-30 2019-01-30
US62/798,837 2019-01-30
US16/731,080 US10635938B1 (en) 2019-01-30 2019-12-31 Learning method and learning device for allowing CNN having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same
US16/731,080 2019-12-31

Publications (2)

Publication Number Publication Date
JP2020123344A JP2020123344A (ja) 2020-08-13
JP6856957B2 true JP6856957B2 (ja) 2021-04-14

Family

ID=70332405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008618A Active JP6856957B2 (ja) 2019-01-30 2020-01-22 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置

Country Status (5)

Country Link
US (1) US10635938B1 (ja)
EP (1) EP3690718B1 (ja)
JP (1) JP6856957B2 (ja)
KR (1) KR102375278B1 (ja)
CN (1) CN111507175B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483738B1 (ko) * 2021-01-11 2022-12-30 연세대학교 산학협력단 제로 스타일 로스를 이용한 도메인 적응 장치 및 방법
US11250298B1 (en) * 2021-03-26 2022-02-15 Stradavision, Inc. Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013773B2 (ja) * 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
KR101543159B1 (ko) * 2014-05-02 2015-08-10 현대자동차주식회사 카메라를 이용한 영상 조정 시스템 및 방법
WO2017004803A1 (en) * 2015-07-08 2017-01-12 Xiaoou Tang An apparatus and a method for semantic image labeling
JP2017162438A (ja) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 危険予測方法
CN109690578B (zh) * 2016-10-05 2024-01-02 英特尔公司 自主机器的通用输入/输出数据捕获和神经高速缓存系统
KR102387570B1 (ko) * 2016-12-16 2022-04-18 삼성전자주식회사 표정 생성 방법, 표정 생성 장치 및 표정 생성을 위한 학습 방법
KR20180094725A (ko) * 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
US10678846B2 (en) 2017-03-10 2020-06-09 Xerox Corporation Instance-level image retrieval with a region proposal network
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US10345822B1 (en) * 2018-01-26 2019-07-09 Ford Global Technologies, Llc Cognitive mapping for vehicles
US10984286B2 (en) * 2018-02-02 2021-04-20 Nvidia Corporation Domain stylization using a neural network model
TWI666595B (zh) * 2018-02-26 2019-07-21 財團法人工業技術研究院 物件標示系統及方法
US20190332109A1 (en) * 2018-04-27 2019-10-31 GM Global Technology Operations LLC Systems and methods for autonomous driving using neural network-based driver learning on tokenized sensor inputs
US10908609B2 (en) * 2018-04-30 2021-02-02 Toyota Research Institute, Inc. Apparatus and method for autonomous driving
US10297070B1 (en) * 2018-10-16 2019-05-21 Inception Institute of Artificial Intelligence, Ltd 3D scene synthesis techniques using neural network architectures

Also Published As

Publication number Publication date
JP2020123344A (ja) 2020-08-13
KR102375278B1 (ko) 2022-03-17
CN111507175A (zh) 2020-08-07
CN111507175B (zh) 2023-04-07
EP3690718A1 (en) 2020-08-05
EP3690718B1 (en) 2022-07-13
KR20200094653A (ko) 2020-08-07
US10635938B1 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6855090B2 (ja) カメラから取得されたイメージと、それに対応するレーダまたはライダを通じて取得されたポイントクラウドマップをニューラルネットワークのそれぞれのコンボリューションステージごとに統合する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
JP6886202B2 (ja) 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
JP6886201B2 (ja) ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
JP6855082B2 (ja) 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置
JP6912835B2 (ja) 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP6856851B2 (ja) イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置
JP6957050B2 (ja) モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same}
JP6865364B2 (ja) エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
JP6978104B2 (ja) Ganを用いて仮想世界における仮想データから取得したトレーニングデータを生成して、自律走行用ニューラルネットワークの学習プロセスに必要なアノテーションコストを削減する学習方法や学習装置、それを利用したテスト方法やテスト装置
JP7092383B2 (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
JP6850037B2 (ja) 自律走行状況で、障害物検出のためのcnn学習用イメージデータセットの生成方法及びコンピューティング装置
JP6849888B2 (ja) 周辺車両のイメージを利用してベース車両のイメージをオートラベリングするオートラベリング装置を学習させる学習方法及び学習装置、そして、これを利用したテスティング方法及びテスティング装置
JP6857369B2 (ja) Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
JP6856957B2 (ja) 写真スタイル変換を使用してランタイム入力の変換によりリアル世界で使用されるバーチャル世界で学習されたcnnを許容するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
JP6892157B2 (ja) V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP6858382B2 (ja) ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
KR20200092845A (ko) 인스턴스 세그멘테이션을 이용한 객체의 자세에 따라 모드를 전환할 수 있는 cnn 기반의 수도-3d 바운딩 박스를 검출하는 방법 및 이를 이용한 장치
JP6857368B2 (ja) Cnn学習方法及び学習装置、これを利用したテスト方法及びテスト装置
JP6856906B2 (ja) 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置
EP4064126B1 (en) Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210312

R150 Certificate of patent or registration of utility model

Ref document number: 6856957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250