JP2020038666A - 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 - Google Patents

自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 Download PDF

Info

Publication number
JP2020038666A
JP2020038666A JP2019160648A JP2019160648A JP2020038666A JP 2020038666 A JP2020038666 A JP 2020038666A JP 2019160648 A JP2019160648 A JP 2019160648A JP 2019160648 A JP2019160648 A JP 2019160648A JP 2020038666 A JP2020038666 A JP 2020038666A
Authority
JP
Japan
Prior art keywords
image
original
segmentation
learning
correct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019160648A
Other languages
English (en)
Other versions
JP6793411B2 (ja
Inventor
ゲヒョン キム
Kye-Hyeon Kim
ゲヒョン キム
ヨンジュン キム
Yong-Jun Kim
ヨンジュン キム
インス キム
Insu Kim
インス キム
ハクギョン キム
Hak Kyoung Kim
ハクギョン キム
ウンヒョン ナム
Woonhyun Nam
ウンヒョン ナム
ソクフン ブ
Sukhoon Boo
ソクフン ブ
ミョンチョル ソン
Myungchul Sung
ミョンチョル ソン
ドンフン ヨ
Donghun Yeo
ドンフン ヨ
ウジュ リュ
Wooju Ryu
ウジュ リュ
テウン ジャン
Taewoong Jang
テウン ジャン
ギョンジュン ジョン
Kyungjoong Jeong
ギョンジュン ジョン
ホンモ ジェ
Hongmo Je
ホンモ ジェ
ホジン ジョ
Hojin Cho
ホジン ジョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020038666A publication Critical patent/JP2020038666A/ja
Application granted granted Critical
Publication of JP6793411B2 publication Critical patent/JP6793411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

【課題】自律走行状況で障害物検出のための学習用データセットを生成する方法を提供する。【解決手段】コンピューティング装置は、道路走行状況を示す少なくとも一つの第1原本イメージ及びそれに対応する第1セグメンテーション原本正解イメージを獲得する段階と、特定の物体を含む第2原本イメージ及び特定の物体に対応する第2セグメンテーション原本正解イメージを獲得する段階と、特定の物体に対応する部分を切り取って生成された第3原本イメージ及び特定の物体が位置する部分に対応する各ピクセルを切り取って生成された第3セグメンテーション原本正解イメージを獲得する段階と、第3原本イメージを第1原本イメージに合成して、少なくとも一つの第4原本イメージを生成し、第4原本イメージとそれに対応する第4セグメンテーション原本正解イメージを含む学習用データセットを生成する段階とを含む。【選択図】図1

Description

本発明は、自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成する方法に関し;より詳しくは、前記自律走行状況で前記障害物検出のための前記学習用データセットを生成する方法において、(a)(i)道路走行状況を示す少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解(ground truth)イメージを獲得する段階;(b)(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得する段階;(c)(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得する段階;及び(d)(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成する段階;を含む方法及びこれを利用したコンピューティング装置と学習方法及び学習装置に関する。
ディープ・コンボリューション・ニューラル・ネットワーク(Deep Convolution Neural Networks;DeepCNNs)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNsは、文字の認識問題を解くために90年代にすでに使われたが、現在のように広く使われるようになったのは最近の研究結果のおかげである。このようなディープCNNは2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。そして、コンボリューションニューラルネットワークは機械学習分野で非常に有用なツールとなった。
一方、イメージセグメンテーション(Image segmentation)は、入力としてイメージ(トレーニングイメージまたはテストイメージ)を受けて、出力としてラベル(label)イメージを作り出す方法である。最近、ディープラーニング(Deep learning)技術が脚光を浴び、セグメンテーションもディープラーニングを多く利用する傾向にある。
一方、自律走行状況で利用される障害物を検出するためにCNNを学習する場合、学習装置は自律走行状況で遭遇する様々な物体を学習しなければならず、そのために学習用イメージは自律走行状況で向き合うことになる様々な物体が存在するイメージである必要がある。
しかしながら、実際の走行状況では、道路上に様々な物体が存在し得るが、このようなデータを収集することは容易ではない。つまり、道路上に頻繁に現れない特異な物体に対する学習イメージは、一般走行映像データでは容易には入手できないだろう。例えば、人や自転車、車両等に対しては、一般走行映像データから容易に得られるイメージであるため、このような物体が含まれる学習イメージでは検出性能を高めるための学習をし得るが、虎やワニ等に対しては、一般走行映像データから容易に入手できず、これにより特異な物体への検出性能を高めるための学習は容易でないという問題点が存在する。
本発明は、前述した問題点を解決することを目的とする。
本発明は、自律走行の際の実際の道路走行状況において、頻繁に接することのない物体を検出し得る性能を高めるために利用される学習用イメージセットを確保することを他の目的とする。
また、本発明は、学習用データセットを用いてCNNのパラメータを学習することにより、実際の道路走行状況で頻繁に接することのない物体に対しても正確度高く検出し得るようにする学習方法を提供することを他の目的とする。
本発明の一態様によれば、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成する方法は、(a)コンピューティング装置が、(i)道路走行状況を示す少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解(ground truth)イメージを獲得する段階;(b)前記コンピューティング装置が、(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得する段階;(c)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得する段階;及び(d)前記コンピューティング装置が、(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成する段階;を含む。
一例として、 前記(d)段階は、(d_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成する段階;及び(d_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成する段階;を含む。
一例として、前記(d_1)段階で、前記コンピューティング装置は、アフィン変換(affine transform)アルゴリズム及び薄板スプライン補間(thin−plate spline interpolation)アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形する。
一例として、前記コンピューティング装置は、前記(d_1)段階で適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(d_1)段階及び前記(d_2)段階を繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、 前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティック(semantic)セグメンテーション原本正解イメージデータベースから各々選択される。
一例として、 前記(c)段階で、前記コンピューティング装置は、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取る。
一例として、 前記(c)段階で、前記コンピューティング装置は、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得する。
一例として、 前記(d)段階で、前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、 前記(d)段階で、前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含む。
本発明の他の態様によれば、CNN(Convolutional Neural Network)による学習方法において、(a)(I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス;(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス;(III)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、学習装置が、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける段階;及び(b)前記学習装置が、前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得して、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整する段階;を含む。
一例として、 前記(IV)プロセスで、(IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成する。
一例として、前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記(IV)プロセスで、前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記(IV)プロセスで、前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
本発明のさらに他の態様によれば、自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成するコンピューティング装置において、(i−1)道路走行状況を示す少なくとも一つの第1原本イメージ及び(i−2)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得し、(ii−1)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii−2)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するための通信部;及び(I)(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(II)(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成するプロセスを遂行するプロセッサ;を含む。
一例として、前記(II)プロセスで、(II_1)前記プロセッサが、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成するプロセス;及び(II_2)前記プロセッサが、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成するプロセス;を遂行する。
一例として、 前記(II_1)プロセスで、前記プロセッサは、アフィン変換アルゴリズム及び薄板スプライン補間アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形する。
一例として、前記プロセッサは、前記(II_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(II_1)プロセス及び前記(II_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティックセグメンテーション原本正解イメージデータベースから各々選択される。
一例として、前記(I)プロセスで、前記プロセッサは、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取る。
一例として、前記(I)プロセスで、前記プロセッサは、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得する。
一例として、前記(II)プロセスで、前記プロセッサは、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記(II)プロセスで、前記プロセッサは、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含む。
本発明のさらに他の態様によれば、CNN(Convolutional Neural Network)による学習を遂行するための学習装置において、 (I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス、(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス、(III)前記コンピューティング装置が(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス、及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける通信部;及び前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得し、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整するプロセッサ;を含む。
一例として、 前記コンピューティング装置によって遂行される前記(IV)プロセスで、(IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成する。
一例として、前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記コンピューティング装置によって遂行される前記(IV)プロセスで、前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成する。
一例として、前記コンピューティング装置によって遂行される前記(IV)プロセスで、前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成する。
本発明によれば、自律走行の際の実際の道路走行状況において、頻繁に接することのない物体を検出し得る性能を高めるために利用される学習用データセットを確保し得る効果がある。
また、本発明によれば、学習用データセットをトレーニングイメージとして利用して、CNN(Convolutional Neural Network)のパラメータを学習することにより、実際の道路走行状況で頻繁に接することのない物体に対しても正確度高く検出し得るようにする学習方法を提供し得る効果がある。
本発明の前記及び他の目的及び特徴は、次の添付図面とともに与えられた好ましい実施例の説明において明らかになるだろう。
図1は、本発明に係る自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成し、これによって学習を遂行する方法を示したフローチャートである。 図2は、本発明に係る前記学習用データセットを生成する過程を示した図面である。 図3は、本発明によって獲得した学習用データセットを利用してCNN(Convolutional Neural Network)イメージセグメンテーションを遂行する過程を示した図面である。
後述する本発明に対する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は当業者が本発明を実施することができるように充分詳細に説明される。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一実施例に係る本発明の精神及び範囲を逸脱せずに他の実施例で具現され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されると、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似する参照符号はいくつかの側面にかけて同一か類似する機能を指称する。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得て、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面を参照して詳細に説明することとする。
図1は、本発明に係る自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成し、これによってCNN(Convolutional Neural Network)学習を遂行する方法を示したフローチャートであり、図2は、本発明に係る前記学習用データセットを生成する過程を示した図面である。
図1及び図2を参照すれば、本発明に係る前記自律走行状況で前記障害物検出のための学習用データセットを生成する方法は、道路走行状態を示す第1原本イメージ及び前記第1原本イメージに対応する第1セグメンテーション原本正解イメージを獲得する段階S01、特定の物体を含む第2原本イメージ及び前記第2原本イメージに対応する第2セグメンテーション原本正解イメージを獲得する段階S02、前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから各々前記特定の物体に対応する領域を切り取って第3原本イメージ及び第3セグメンテーション原本正解イメージを獲得する段階S03、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを各々多様に変形させて変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成する段階S04、前記変形された第3原本イメージを前記第1原本イメージの多様な位置に各々合成して、前記変形された第3原本イメージが前記第1原本イメージに合成された位置に対応するように前記変形された第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成することで、学習用第4原本イメージとそれに対応する学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成する段階S05、前記第4原本イメージを学習装置に入力し、前記第4原本イメージに対して前記学習装置に含まれた前記CNNによる複数回の演算を適用して出力イメージを獲得する段階S06、及び前記出力イメージと前記学習用データセットに含まれた前記第4セグメンテーション原本正解イメージを比較してロス(loss)を獲得した後、バックプロパゲーション(backpropagation)を通じて前記学習装置内前記CNNの少なくとも一つのパラメータを調整する段階S07を含む。このような過程は、前記学習用データセットを生成するコンピューティング装置で遂行され得る。
前記コンピューティング装置の通信部では、道路走行状況を示す前記第1原本イメージ及びこれに対応される前記第1セグメンテーション原本正解イメージを獲得し、前記特定の物体に対するイメージを含む前記第2原本イメージ及び前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する前記第2セグメンテーション原本正解イメージを獲得する機能を遂行し、このコンピューティング装置のプロセッサでは、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された前記第3原本イメージ及び前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応される各ピクセルを切り取って生成された前記第3セグメンテーション原本正解イメージを獲得するプロセス;及び(ii)前記第3原本イメージを前記第1原本イメージに合成して、前記学習用第4原本イメージを生成し、前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して前記学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成するプロセスを遂行する。
以下、図1及び図2を参照して、本発明に係る前記自律走行状況で前記障害物検出のための前記学習用データセットを生成する方法をより詳しく説明する。
まず、前記S01段階では、図2の最上段左側図面のように、一般的な道路走行イメージデータベースから前記第1原本イメージが選択され、前記道路走行イメージデータベースに対応する第1セグメンテーション原本正解イメージデータベースから前記第1セグメンテーション原本正解イメージが選択される。
この際、前記道路走行イメージデータベース及びこれに対応する前記第1セグメンテーション原本正解イメージデータベースは、多様な道路走行関連イメージとこれに各々対応する多様なセグメンテーション原本正解イメージが含まれており、前記道路走行イメージデータベースと、前記第1セグメンテーション原本正解イメージデータベースは一つのデータベースで構成され得る。この際、前記第1セグメンテーション原本正解イメージは、前記第1原本イメージ上の様々な物体に対するセマンティックセグメンテーション情報を含むイメージでもあり得るが、少なくとも道路に対するセグメンテーション情報さえ含んでいれば、前記第1セグメンテーション原本正解イメージとして充分であり得る。
その後、前記S02段階では、図2の二番目の行の左側図面のように、前記特定の物体に対するイメージを含む前記第2原本イメージ(前記第1原本イメージとは異なって道路走行環境である必要がなく、一般的には道路走行環境とは異なる環境であるだろう)を様々な物体の種類別原本イメージデータベースから選択して、図2の二番目の行の右側図面のように、前記第2原本イメージ内の前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する前記第2セグメンテーション原本正解イメージを前記様々な物体の種類別原本イメージデータベースに対応する第2セグメンテーション原本正解イメージデータベースから選択する。この際、前記第2セグメンテーション原本正解イメージデータベースはセマンティックセグメンテーションイメージを含む。
ここでも、前記様々な物体の種類別原本イメージデータベースと、前記第2セグメンテーションデータベースは一つのデータベースで構成され得て、牛、虎、熊、キリン、ワニ、犬、猫、人、鳥などのように道路で遭遇し得る任意の多様な物体に対するイメージとこれに対してセマンティックセグメンテーションを遂行した原本正解イメージがペアで含まれている。
その後、前記S03段階では、図2の三番目の行の左側図面のように、前記第2原本イメージから前記特定の物体に対応する部分(例えば、左側牛のイメージ部分)を切り取って前記第3原本イメージを生成して、図2の三番目の行の右側図面のように、前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応されるピクセルを切り取って前記第3セグメンテーション原本正解イメージを生成する。
この際、前記コンピューティング装置は、前記第2セグメンテーション原本正解イメージから前記第3セグメンテーション原本正解イメージを先に切り取り、切り取ってから生成された前記第3セグメンテーション原本正解イメージのピクセル情報をもとに前記第2原本イメージから前記特定の物体に対応する部分を切り取って前記第3原本イメージを生成し得る。
この際、前記コンピューティング装置は、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから前記特定の物体に対応する部分を切り取る方法を利用する。具体的には、前記第2セグメンテーション原本正解イメージから前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内の前記ピクセルの位置を参照にして前記第3原本イメージが獲得される。
再度図1を参照すると、前記S04段階及び前記S05段階では、前記コンピューティング装置が、前記第3原本イメージを前記第1原本イメージに合成し、前記第3原本イメージが前記第1原本イメージに合成された位置に対応するように前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成する。これによって、前記学習用第4原本イメージとこれに対応する前記学習用第4セグメンテーション原本正解イメージが生成される。このように生成された前記学習用第4原本イメージと、前記学習用の第4セグメンテーション原本正解イメージは、前記学習用データセットとなる。
本発明の一実施例によれば、前記コンピューティング装置は、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形した後、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成し得る。このような変形アルゴリズムの例は、アフィン変換(affine transform)アルゴリズム及び薄板スプライン補間(thin−plate spline interpolation)アルゴリズムなどが利用され得る。また、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージのサイズを変更したり、所定角度へ回転させたり、左右反転させるなどの方式でイメージを変形させ得る。このような段階は、前述した各過程の混合過程を繰り返すことにより遂行され、アルゴリズム又はこれに適用される詳細パラメータを変化させ続けたり、変形される前記サイズを変更させ続けたり、回転角度を変更させ続けながら様々に変形された第3原本イメージ及び多様に変形された第3セグメンテーション原本正解イメージを生成し得る。これによって、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成され得る。つまり、一つの第1原本イメージと一つの第1セグメンテーション原本正解イメージ、及び一つの第3原本イメージと一つの第3セグメンテーション原本正解イメージから様々な前記学習用第4原本イメージや多様な前記学習用第4セグメンテーション原本正解イメージが生成され得るようになる。
一方、前述のとおり、前記第1セグメンテーション原本正解イメージには前記道路に対するセグメンテーション情報が含まれているため、前記コンピューティング装置は、前記第1原本イメージ内で前記道路に該当する部分を判断した後、前記第3原本イメージを前記第1原本イメージ内の前記道路に対応する領域に合成して前記学習用第4原本イメージを生成する。この際、前記第3原本イメージを前記第1原本イメージ内の前記道路に対応する領域内で任意の位置に合成し、前記学習用第4原本イメージを生成し得る。そして、前記第1原本イメージ内の前記第3原本イメージが合成される前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成する。そしてこの段階でも、前記コンピューティング装置は、前記道路に対応する領域内で前記任意の位置を変え続けながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し得る。これによって、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージが生成される。前記変形アルゴリズムを繰り返す場合のように、多様な前記学習用第4原本イメージ及び多様な前記学習用第4セグメンテーション原本正解イメージが一つの第1原本イメージと一つの第1セグメンテーション原本正解イメージ、及び一つの第3原本イメージと一つの第3セグメンテーション原本正解イメージから生成され得る。
その後、再び図1を参照すれば、本発明は、前記合成された第4原本イメージを入力イメージとして前記S06段階及び前記S07段階が遂行される。
図3は、本発明に係る前記獲得した学習用データセットを利用してCNNイメージセグメンテーションを遂行する過程を示した図面である。
図3を参照して、前記S06段階及び前記S07段階を具体的に説明すると、前記生成された学習用データセットからペアの前記第4原本イメージ及び前記第4セグメンテーション原本正解イメージが選択された後、前記選択された第4原本イメージがCNN装置にトレーニングイメージとして入力される。前記トレーニングイメージが入力されると、複数のコンボリューションフィルタ(またはコンボリューションレイヤ)で複数回のコンボリューション演算を遂行して特徴マップを獲得する。そして、最終的に生成された特徴マップ、すなわち、CONV.Kの出力を複数のデコンボリューションフィルタ(またはデコンボリューションレイヤ)で複数回のデコンボリューション演算を遂行してセグメンテーションイメージを獲得する。このように前記コンボリューション演算でイメージをエンコーディング(encoding)して前記特徴マップが獲得され、前記最終特徴マップ、すなわち前記CONV.Kの出力がデコーディング(decoding)され、前記セグメンテーションイメージ(またはラベル(label)イメージ)が獲得される前記CNN装置の仕組みをエンコーディング・デコーディングネットワーク、またはU−Netという。前記エンコーディング過程で各コンボリューション演算を実行するたびに前記入力イメージの大きさが、例えば1/2に縮小されるのだが、これはイメージのサイズを減らして演算量を減らすためだ。また、前記エンコーディング過程において、前記コンボリューションフィルタにより入力されたイメージのチャンネル数は増加するのだが、これは減らされた演算量の利得を活用しながらも、増えたチャンネルを通じて複雑なパターンを得るためである。一般的に、前記エンコーディング過程で各々の前記コンボリューションフィルタを経るたびに、前記イメージのサイズは1/2に減りチャンネル数は2倍に増える。このように縮小された特徴マップは、高周波領域が多く除去され、低周波領域中心の情報を有することになるのだが、このような低周波領域は、イメージの意味のある(meaningful)部分、すなわち、空、道路、建物、自動車などの詳しい部分を意味する。このような意味のあるパートを、前記デコンボリューション演算、すなわちデコーディング演算によって前記セグメンテーションイメージとして類推することになる。
一方、前記CNN学習を遂行する過程で、(i)前記第4原本イメージを前記トレーニングイメージとして入力して算出された前記セグメンテーションイメージと(ii)前記第4セグメンテーション原本正解イメージとの差である前記ロスを計算する。そして、前記計算されたロスをバックプロパゲーションして、前記CNNの前記パラメータを最適化する学習を行う。
本発明によれば、自律走行状況で実際の道路走行状況で獲得した映像データでは容易には得られない様々な状況、すなわち、様々な物体が道路上に存在する状況に対する多くの学習イメージセットを提供し得る。そして、これにより、実際の道路走行状況で頻繁に接することのできない物体に対してもCNN学習によって自律走行状況で検出し得る効果がある。
本発明技術分野の通常の技術者に理解され、前記で説明されたイメージ、例えばトレーニングイメージ、テストイメージといったイメージデータの送受信が学習装置及びテスト装置の各通信部によって行われ得り、特徴マップと演算を遂行するためのデータが学習装置及びテスト装置のプロセッサ(及び/またはメモリ)によって保有/維持でき得り、コンボリューション演算、デコンボリューション演算、ロス値の演算過程が主に学習装置及びテスト装置のプロセッサにより遂行され得るが、本発明はこれに限定されるものではない。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で具現されてコンピュータで判読可能な記録媒体に記録され得る。前記コンピュータで判読可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ判読可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものか、コンピュータソフトウェア分野の当業者に公知となって使用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピィディスク及び磁気テープのような磁気媒体、 CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気−光媒体(magneto−opticalmedia)、およびROM、RAM、フラッシュメモリなどといったプログラム命令語を保存して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記のハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得て、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記の説明された実施例に極限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (30)

  1. 自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成する方法において、
    (a)コンピューティング装置が、(i)道路走行状況を示す少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解(ground truth)イメージを獲得する段階;
    (b)前記コンピューティング装置が、(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得する段階;
    (c)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得する段階;及び
    (d)前記コンピューティング装置が、(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成する段階;を含むことを特徴とする方法。
  2. 前記(d)段階は、
    (d_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成する段階;及び
    (d_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成する段階;
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記(d_1)段階で、
    前記コンピューティング装置は、アフィン変換(affine transform)アルゴリズム及び薄板スプライン補間(thin−plate spline interpolation)アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形することを特徴とする請求項2に記載の方法。
  4. 前記コンピューティング装置は、前記(d_1)段階で適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(d_1)段階及び前記(d_2)段階を繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項2に記載の方法。
  5. 前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、
    前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティック(semantic)セグメンテーション原本正解イメージデータベースから各々選択されることを特徴とする請求項1に記載の方法。
  6. 前記(c)段階で、
    前記コンピューティング装置は、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取ることを特徴とする請求項5に記載の方法。
  7. 前記(c)段階で、
    前記コンピューティング装置は、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得することを特徴とする請求項6に記載の方法。
  8. 前記(d)段階で、
    前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項1に記載の方法。
  9. 前記(d)段階で、
    前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項8に記載の方法。
  10. 前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含むことを特徴とする請求項1に記載の方法。
  11. CNN(Convolutional Neural Network)による学習方法において、
    (a)(I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス;(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含んで前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス;(III)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、学習装置が、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける段階;及び
    (b)前記学習装置が、前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得して、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整する段階;
    を含むことを特徴とする学習方法。
  12. 前記(IV)プロセスで、
    (IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成することを特徴とする請求項11に記載の学習方法。
  13. 前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項12に記載の学習方法。
  14. 前記(IV)プロセスで、
    前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項11に記載の学習方法。
  15. 前記(IV)プロセスで、
    前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項14に記載の学習方法。
  16. 自律走行状況で、少なくとも一つの障害物検出のための少なくとも一つの学習用データセットを生成するコンピューティング装置において、
    (i−1)道路走行状況を示す少なくとも一つの第1原本イメージ及び(i−2)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得し、(ii−1)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii−2)前記特定の物体に対するセグメンテーション情報を含み、前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するための通信部;及び
    (I)(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス;及び(II)(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む前記学習用データセットを生成するプロセスを遂行するプロセッサ;
    を含むことを特徴とするコンピューティング装置。
  17. 前記(II)プロセスで、
    (II_1)前記プロセッサが、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成するプロセス;及び(II_2)前記プロセッサが、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成するプロセス;を遂行することを特徴とする請求項16に記載のコンピューティング装置。
  18. 前記(II_1)プロセスで、
    前記プロセッサは、アフィン変換アルゴリズム及び薄板スプライン補間アルゴリズムのうち少なくとも一つのアルゴリズムを利用して、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを変形することを特徴とする請求項17に記載のコンピューティング装置。
  19. 前記プロセッサは、前記(II_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(II_1)プロセス及び前記(II_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項17に記載のコンピューティング装置。
  20. 前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージは様々な道路走行イメージデータベース及びこれに対応するセグメンテーション原本正解イメージデータベースから各々選択され、
    前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージは、様々な物体の種類別原本イメージデータベース及びこれに対応するセマンティックセグメンテーション原本正解イメージデータベースから各々選択されることを特徴とする請求項16に記載のコンピューティング装置。
  21. 前記(I)プロセスで、
    前記プロセッサは、前記第2セグメンテーション原本正解イメージのセマンティックセグメンテーション情報を利用して、前記特定の物体を前記第2原本イメージ及び前記第2セグメンテーション原本正解イメージから切り取ることを特徴とする請求項20に記載のコンピューティング装置。
  22. 前記(I)プロセスで、
    前記プロセッサは、(i)前記第2セグメンテーション原本正解イメージ内の前記特定の物体に対するセマンティックセグメンテーション情報を有する領域を切り取って前記第3セグメンテーション原本正解イメージを獲得し、(ii)前記第2セグメンテーション原本正解イメージ内の前記第3セグメンテーション原本正解イメージ部分のピクセル情報に対応される前記第2原本イメージ内のピクセルの位置を参照にして前記第3原本イメージを獲得することを特徴とする請求項21に記載のコンピューティング装置。
  23. 前記(II)プロセスで、
    前記プロセッサは、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項16に記載のコンピューティング装置。
  24. 前記(II)プロセスで、
    前記プロセッサは、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項20に記載のコンピューティング装置。
  25. 前記第1セグメンテーション原本正解イメージは、前記道路に対するセグメンテーション情報を含むことを特徴とする請求項16に記載のコンピューティング装置。
  26. CNN(Convolutional Neural Network)による学習を遂行するための学習装置において、
    (I)コンピューティング装置が(i)道路走行状況を示す、少なくとも一つの第1原本イメージ及び(ii)前記第1原本イメージに対応する少なくとも一つの第1セグメンテーション原本正解イメージを獲得するプロセス、(II)前記コンピューティング装置が(i)少なくとも一つの特定の物体に対するイメージを含む少なくとも一つの第2原本イメージ及び(ii)前記特定の物体に対するセグメンテーション情報を含み前記第2原本イメージに対応する少なくとも一つの第2セグメンテーション原本正解イメージを獲得するプロセス、(III)前記コンピューティング装置が、(i)前記第2原本イメージから前記特定の物体に対応する部分を切り取って生成された少なくとも一つの第3原本イメージ及び(ii)前記第2セグメンテーション原本正解イメージから前記特定の物体が位置する部分に対応する各ピクセルを切り取って生成された少なくとも一つの第3セグメンテーション原本正解イメージを獲得するプロセス、及び(IV)前記コンピューティング装置が(i)前記第3原本イメージを前記第1原本イメージに合成して、少なくとも一つの学習用第4原本イメージを生成し、(ii)前記第3原本イメージが前記第1原本イメージに合成された少なくとも一つの特定位置に対応するように、前記第3セグメンテーション原本正解イメージを前記第1セグメンテーション原本正解イメージに合成して少なくとも一つの学習用第4セグメンテーション原本正解イメージを生成することにより、前記学習用第4原本イメージとそれに対応する前記学習用第4セグメンテーション原本正解イメージを含む学習用データセットを生成するプロセスを遂行した状態で、前記学習用第4原本イメージを、自律走行状況で少なくとも一つの障害物検出のための少なくとも一つの学習用イメージとして入力を受ける通信部;及び
    前記学習用第4原本イメージに対して、前記CNNの複数の演算を適用して出力イメージを獲得し、前記出力イメージと前記第4セグメンテーション原本正解イメージを比較した後、バックプロパゲーション(backpropagation)によって前記学習装置のパラメータを調整するプロセッサ;
    を含むことを特徴とする学習装置。
  27. 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
    (IV_1)前記コンピューティング装置が、前記第3原本イメージ及び前記第3セグメンテーション原本正解イメージを互いに同一の方法で変形して各々変形された第3原本イメージ及び変形された第3セグメンテーション原本正解イメージを生成し;(IV_2)前記コンピューティング装置が、前記変形された第3原本イメージ及び前記変形された第3セグメンテーション原本正解イメージを各々前記第1原本イメージ及び前記第1セグメンテーション原本正解イメージに合成することを特徴とする請求項26に記載の学習装置。
  28. 前記コンピューティング装置は、前記(IV_1)プロセスで適用されるアルゴリズム及びその細部パラメータのうち少なくとも一部を変化させながら、前記(IV_1)プロセス及び前記(IV_2)プロセスを繰り返し遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項27に記載の学習装置。
  29. 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
    前記コンピューティング装置は、(i)前記第1原本イメージ内で道路に対応する部分を判断した後、前記第3原本イメージを前記第1原本イメージから前記道路に対応する部分内の任意の位置に合成し、前記学習用第4原本イメージを生成し、(ii)前記第1原本イメージでの前記任意の位置に対応するように前記第1セグメンテーション原本正解イメージに前記第3セグメンテーション原本正解イメージを合成することで、前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項26に記載の学習装置。
  30. 前記コンピューティング装置によって遂行される前記(IV)プロセスで、
    前記コンピューティング装置は、前記任意の位置を変えながら前記学習用第4原本イメージ及び前記学習用第4セグメンテーション原本正解イメージを生成する過程を複数回遂行し、互いに異なる複数の前記学習用第4原本イメージ及び互いに異なる複数の前記学習用第4セグメンテーション原本正解イメージを生成することを特徴とする請求項29に記載の学習装置。

JP2019160648A 2018-09-04 2019-09-03 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置 Active JP6793411B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/120,623 2018-09-04
US16/120,623 US10565476B1 (en) 2018-09-04 2018-09-04 Method and computing device for generating image data set for learning to be used for detection of obstruction in autonomous driving circumstances and learning method and learning device using the same

Publications (2)

Publication Number Publication Date
JP2020038666A true JP2020038666A (ja) 2020-03-12
JP6793411B2 JP6793411B2 (ja) 2020-12-02

Family

ID=66589180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160648A Active JP6793411B2 (ja) 2018-09-04 2019-09-03 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置

Country Status (5)

Country Link
US (1) US10565476B1 (ja)
EP (1) EP3620954A1 (ja)
JP (1) JP6793411B2 (ja)
KR (1) KR102286755B1 (ja)
CN (1) CN110874566B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10762393B2 (en) * 2019-01-31 2020-09-01 StradVision, Inc. Learning method and learning device for learning automatic labeling device capable of auto-labeling image of base vehicle using images of nearby vehicles, and testing method and testing device using the same
CN113225613B (zh) * 2020-01-21 2022-07-08 北京达佳互联信息技术有限公司 图像识别、视频直播方法和装置
EP3965052B1 (en) * 2020-09-04 2023-08-16 Robert Bosch GmbH Device and method of training a generative neural network
KR102345799B1 (ko) * 2021-02-23 2021-12-31 인그래디언트 주식회사 Cnn 기반의 자동 라벨 마스크 교정 방법 및 이를 이용한 시스템
CN113269130B (zh) * 2021-06-11 2024-08-06 国电瑞源(西安)智能研究院有限公司 一种基于人工神经网络的视觉路径搜寻方法
KR102354681B1 (ko) * 2021-11-08 2022-01-24 주식회사 테스트웍스 신경망 모델 기반의 이미지 증강 방법, 서버 및 컴퓨터 프로그램
US20230386163A1 (en) * 2022-05-28 2023-11-30 Orbital Insight, Inc. Object Level Data Augmentation Scheme for Training Object Detectors

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303645A (ja) * 1992-04-28 1993-11-16 Toshiba Corp 画像認識装置
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720282B2 (en) * 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
US20130063487A1 (en) * 2011-09-12 2013-03-14 MyChic Systems Ltd. Method and system of using augmented reality for applications
WO2015134996A1 (en) * 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9141883B1 (en) * 2015-05-11 2015-09-22 StradVision, Inc. Method, hard negative proposer, and classifier for supporting to collect hard negative images using a similarity map
US10007863B1 (en) * 2015-06-05 2018-06-26 Gracenote, Inc. Logo recognition in images and videos
US9767381B2 (en) * 2015-09-22 2017-09-19 Xerox Corporation Similarity-based detection of prominent objects using deep CNN pooling layers as features
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US10019652B2 (en) * 2016-02-23 2018-07-10 Xerox Corporation Generating a virtual world to assess real-world video analysis performance
US11144889B2 (en) * 2016-04-06 2021-10-12 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
WO2018015414A1 (en) * 2016-07-21 2018-01-25 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation
US10019655B2 (en) * 2016-08-31 2018-07-10 Adobe Systems Incorporated Deep-learning network architecture for object detection
US9947103B1 (en) * 2017-10-03 2018-04-17 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10095977B1 (en) * 2017-10-04 2018-10-09 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
US11080886B2 (en) * 2017-11-15 2021-08-03 Qualcomm Incorporated Learning disentangled invariant representations for one shot instance recognition
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303645A (ja) * 1992-04-28 1993-11-16 Toshiba Corp 画像認識装置
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Also Published As

Publication number Publication date
JP6793411B2 (ja) 2020-12-02
CN110874566B (zh) 2023-07-25
KR102286755B1 (ko) 2021-08-09
KR20200027425A (ko) 2020-03-12
US10565476B1 (en) 2020-02-18
EP3620954A1 (en) 2020-03-11
CN110874566A (zh) 2020-03-10

Similar Documents

Publication Publication Date Title
JP2020038666A (ja) 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置
KR102313133B1 (ko) 컨벌루션 뉴럴 네트워크로부터 복수의 출력들의 앙상블을 이용하여 통합된 특징 맵을 제공하기 위한 방법 및 장치
US10540572B1 (en) Method for auto-labeling training images for use in deep learning network to analyze images with high precision, and auto-labeling device using the same
KR102279350B1 (ko) 자율 주행 상황에서 장애물 검출을 위한 cnn 학습용 이미지 데이터 세트의 생성 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102144381B1 (ko) 이미지 세그멘테이션을 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치
US10325352B1 (en) Method and device for transforming CNN layers to optimize CNN parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization
JP2020038662A (ja) 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same}
EP3687152B1 (en) Learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same
US10325371B1 (en) Method and device for segmenting image to be used for surveillance using weighted convolution filters for respective grid cells by converting modes according to classes of areas to satisfy level 4 of autonomous vehicle, and testing method and testing device using the same
CN111968123B (zh) 一种半监督视频目标分割方法
KR102314524B1 (ko) 자율 주행 상황에서 장애물 검출을 위한 cnn 학습용 이미지 데이터 세트의 생성 방법 및 컴퓨팅 장치
CN111507161B (zh) 利用合并网络进行异质传感器融合的方法和装置
EP3686794A1 (en) Learning method and learning device for cnn using 1xk or kx1 convolution to be used for hardware optimization, and testing method and testing device using the same
EP3686783A1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US10325185B1 (en) Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same
US10402686B1 (en) Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same
EP3686809B1 (en) Method and device for transforming cnn layers to optimize cnn parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization
EP3686784B1 (en) Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US10373004B1 (en) Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6793411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250