JP6916548B2 - 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents

自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Download PDF

Info

Publication number
JP6916548B2
JP6916548B2 JP2020001763A JP2020001763A JP6916548B2 JP 6916548 B2 JP6916548 B2 JP 6916548B2 JP 2020001763 A JP2020001763 A JP 2020001763A JP 2020001763 A JP2020001763 A JP 2020001763A JP 6916548 B2 JP6916548 B2 JP 6916548B2
Authority
JP
Japan
Prior art keywords
softmax
learning
scores
segmentation
once
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020001763A
Other languages
English (en)
Other versions
JP2020119531A (ja
Inventor
桂賢 金
桂賢 金
鎔重 金
鎔重 金
寅洙 金
寅洙 金
鶴京 金
鶴京 金
雲鉉 南
雲鉉 南
碩▲ふん▼ 夫
碩▲ふん▼ 夫
明哲 成
明哲 成
東勳 呂
東勳 呂
宇宙 柳
宇宙 柳
泰雄 張
泰雄 張
景中 鄭
景中 鄭
泓模 諸
泓模 諸
浩辰 趙
浩辰 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020119531A publication Critical patent/JP2020119531A/ja
Application granted granted Critical
Publication of JP6916548B2 publication Critical patent/JP6916548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、自律走行自動車のレベル4を満たすために必要なHDマップとのコラボレーションを支援するのに使用される少なくとも一つの車線を有するイメージをセグメンテーションする学習方法に関し、より詳細には、前記車線を有する前記入力イメージをセグメンテーションする前記学習方法において、(a)前記入力イメージが取得されると、学習装置が、CNN(Convolutional Neural Network)モジュールをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて特徴マップを生成し、前記特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記入力イメージ上のそれぞれのピクセルに対するそれぞれのセグメンテーションスコア(Segmentation Score)を生成させる段階;(b)前記学習装置が、前記CNNモジュールをもって、前記それぞれのセグメンテーションスコアに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させてそれぞれのソフトマックススコアを生成させる段階;(c)前記学習装置が、前記CNNモジュールをもって、(I)(i)前記ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成させ、(ii)前記ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(II)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させる段階;を含むことを特徴とする学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置に関する。
ディープコンボリューションニューラルネットワーク(Deep Convolution NeuralNetworks;Deep CNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解決するために90年代にすでに使われていたが、現在のように広く使用されるようになったのは最近の研究結果の賜物である。このようなディープCNNは、2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。その後、コンボリューションニューラルネットワークは機械学習(Machine Learning)分野で非常に有用なツールとなった。
一方、イメージセグメンテーション(Image Segmentation)は入力イメージ(トレーニングイメージまたはテストイメージ)を受信して、ラベル(Label)イメージを出力イメージとして生成する方法である。最近、ディープランニング(Deep Learning)技術が脚光を浴びるに伴い、イメージセグメンテーションにもディープラーニング技術を多く使用する傾向にある。
セグメンテーションが遂行される場合、イメージ上のそれぞれのクラスタ内でピクセル数の分布が不均衡であれば、ピクセル数が小さい部分がぼやけてしまう場合が多い。ピクセル数の分布が不均衡な代表的なケースとして、自律走行自動車で使用されるイメージがある。この場合、特定の車線が点線であるかイメージ内で遠距離領域に存在すると、車線の当該部分のピクセル数が少なくなってセグメンテーションを行う際にピクセル数の少ない部分が車線ではないものと誤って判断される問題点が存在する。
本発明は、上述した問題点を解決することを目的とする。
本発明は、ソフトマックスロスとエンベディングロスをバックプロパゲーションして、ピクセル数が少ない部分もセグメンテーション結果上で濃く出力され、互いに異なる車線を区分することがより容易になるようにセグメンテーションスコアを出力することを他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、少なくとも一つの車線を有する入力イメージをセグメンテーションする前記学習方法において、(a)前記入力イメージが取得されると、学習装置が、CNN(Convolutional Neural Network)モジュールをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて特徴マップを生成し、前記特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記入力イメージ上のそれぞれのピクセルに対するそれぞれのセグメンテーションスコア(Segmentation Score)を生成させる段階;(b)前記学習装置が、前記CNNモジュールをもって、前記それぞれのセグメンテーションスコアに対して、ソフトマックス演算(Softmax Operation)を少なくとも一回適用させてそれぞれのソフトマックススコアを生成させる段階;(c)前記学習装置が、前記CNNモジュールをもって、(I)(i)前記ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成するようにし、(ii)前記ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(II)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習する段階;を含むことを特徴とする。
一実施例において、
Figure 0006916548
前記エンベディングロスそれぞれは、前記数式を通じて算出され、前記入力イメージが前記車線及び少なくとも一つの背景部分を有する複数個のクラスタを含むとすると、NCは前記入力イメージ上の前記車線及び前記背景部分を含む前記クラスタの個数、NCはそれぞれの前記クラスタ内のピクセルの個数、μはそれぞれの前記クラスタに含まれているピクセルそれぞれに対応するソフトマックススコアのそれぞれの平均、
Figure 0006916548
はそれぞれの前記ピクセルに対応する前記ソフトマックススコア及びそれぞれの前記ピクセルに対応する前記μを参照して算出された分散のうち最大値、
Figure 0006916548
は互いに異なるクラスタに対応するμ間の差のうち最小値を意味することを特徴とする。
一実施例において、それぞれの前記多項ロジスティックロスは、次の数式を利用して算出され、
Figure 0006916548
この場合、sは前記入力イメージ一つに含まれる前記ピクセルの個数、lは第iピクセルがこれに対応する原本正解ラベル上でどのクラスタに属するのかを示すワンホットエンコード(One−Hot−Encoding)ベクトル、P(i)は、前記ピクセルそれぞれに対応するそれぞれのソフトマックスコアを意味することを特徴とする。
本発明の他の態様によると、少なくとも一つの車線を有するテストイメージをセグメンテーションするテスト方法において、(a)学習装置が、(1)CNN(Convolutional Neural Network)モジュールをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて学習用特徴マップを生成した後、前記学習用特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記トレーニングイメージ上のそれぞれのピクセルに対する学習用セグメンテーションスコア(Segmentation Score)それぞれを生成させ;(2)前記CNNモジュールをもって、前記学習用セグメンテーションスコアそれぞれに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させて学習用ソフトマックススコアそれぞれを生成するようにし;(3)前記CNNモジュールをもって、(I)(i)前記学習用ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてソフトマックスロスそれぞれを生成させ、(ii)前記学習用ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記学習用セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記学習用セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(II)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させた状態で、前記テストイメージが取得されると、テスト装置が、前記CNNモジュールをもって前記テストイメージに対してコンボリューション演算を少なくとも一回適用させてテスト用特徴マップを生成した後、前記テスト用特徴マップに対してデコンボリューション演算を適用させて前記テストイメージ上のそれぞれのピクセルに対するテスト用セグメンテーションスコアそれぞれを生成させる段階;及び(b)前記テスト装置が、前記CNNモジュールをもって、前記テスト用セグメンテーションスコアそれぞれに対してソフトマックス演算を適用させてテスト用ソフトマックススコアそれぞれを生成させる段階;を含むことを特徴とする。
本発明のまた他の態様によると、少なくとも一つの車線を有する入力イメージをセグメンテーションする学習装置において、インストラクションを格納する少なくとも一つのメモリと、(I)CNN(Convolutional Neural Network)モジュールをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて特徴マップを生成し、前記特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記入力イメージ上のそれぞれのピクセルに対するそれぞれのセグメンテーションスコア(Segmentation Score)を生成させるプロセス、(II)前記CNNモジュールをもって、前記それぞれのセグメンテーションスコアに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させてそれぞれのソフトマックススコアを生成させるプロセス、(III)前記CNNモジュールをもって、(1)(i)前記ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成させ、(ii)前記ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(2)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、
Figure 0006916548
前記エンベディングロスそれぞれは、前記数式を通じて算出され、前記入力イメージが前記車線及び少なくとも一つの背景部分を有する複数個のクラスタを含むとすると、NCは前記入力イメージ上の前記車線及び前記背景部分を含む前記クラスタの個数、NCはそれぞれの前記クラスタ内のピクセルの個数、μはそれぞれの前記クラスタに含まれたピクセルそれぞれに対応するソフトマックススコアのそれぞれの平均、
Figure 0006916548
はそれぞれの前記ピクセルに対応する前記ソフトマックススコア及びそれぞれの前記ピクセルに対応する前記μを参照して算出された分散のうち最大値、
Figure 0006916548
は互いに異なるクラスタに対応するμ間の差のうち最小値を意味することを特徴とする。
一実施例において、それぞれの前記多項ロジスティックロスは、次の数式を利用して算出され、
Figure 0006916548
である場合、sは前記入力イメージ一つに含まれる前記ピクセルの個数、lは第iピクセルがこれに対応する原本正解ラベル上でどのクラスタに属するのかを示すワンホットエンコード(One−Hot−Encoding)ベクトル、P(i)は前記ピクセルそれぞれに対応するそれぞれのソフトマックススコアを意味することを特徴とする。
本発明のまた他の態様によると、少なくとも一つの車線を有するテストイメージをセグメンテーションするテスト装置において、インストラクションを格納する少なくとも一つのメモリと、学習装置が、(1)CNN(Convolutional Neural Network)モジュールをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて学習用特徴マップを生成した後、前記学習用特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記トレーニングイメージ上のそれぞれのピクセルに対する学習用セグメンテーションスコア(Segmentation Score)それぞれを生成させ、(2)前記CNNモジュールをもって、前記学習用セグメンテーションスコアそれぞれに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させて学習用ソフトマックススコアそれぞれを生成させ、(3)前記CNNモジュールをもって、(3−1)(i)前記学習用ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてソフトマックスロスそれぞれを生成させ、(ii)前記学習用ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記学習用セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記学習用セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(3−2)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させた状態で、(I)前記CNNモジュールをもって、前記テストイメージに対してコンボリューション演算を適用させてテスト用特徴マップを生成した後、前記テスト用特徴マップに対してデコンボリューション演算を適用させて前記テストイメージ上のそれぞれのピクセルに対するテスト用セグメンテーションスコアそれぞれを生成させるプロセス、及び(II)前記CNNモジュールをもって、前記テスト用セグメンテーションスコアそれぞれに対してソフトマックス演算を適用させてテスト用ソフトマックススコアそれぞれを生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
本発明は、同一の車線に属するピクセル間のセグメンテーションスコア間における差は小さくし、異なる車線に属するピクセル間のセグメンテーションスコア間における差は大きくすることにより、最適化されたセグメンテーション結果が得られる効果がある。
本発明の実施例の説明に利用されるために添付された以下の図面は、本発明の実施例のうち単に一部であるにすぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
本発明による学習装置を示した図面である。 本発明の一実施例にしたがって、エンベディングロス値及びソフトマックスロス値をバックプロパゲーションしてCNN(Convolutional Neural Network)を学習するプロセスを示した図面である。 本発明によるクラスタ内のピクセル数が不均衡である場合を示した図面である。 従来技術にしたがって、図3のイメージがセグメンテーションされた場合のセグメンテーションスコアを示した図面である。 本発明の一実施例にしたがって、図3のイメージがセグメンテーションされた場合のセグメンテーションスコアを示した図面である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は、本説明書から、また一部は、本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例に対して添付の図面に基づいて詳細に説明することにする。
図1は、本発明による学習装置を示した図面である。図1を参照すると、学習装置100は、CNNモジュール200を含むことができる。そして、様々なデータは通信部110によって受信または送信され、前記CNNモジュール200の様々なプロセスは、プロセッサ120によって行われ得る。ただし、図1では、通信部110と、プロセッサ120と、CNNモジュール200との具体的な連結関係を省略した。また、学習装置は、以下のプロセスを遂行するためのコンピュータ読取り可能なインストラクション(Instruction)を格納することができるメモリ115をさらに含むことができる。一実施例によると、プロセッサ、メモリ、媒体等は統合プロセッサ(Integrated Processor)として統合され得る。
図2は、本発明によるエンベディングロス値及びソフトマックスロス値をバックプロパゲーションしてCNN(Convolutional Neural Network)を学習するプロセスを示した図面である。
図2を参照すると、通信部110を通じて入力イメージが取得されると、CNNモジュール200は予め設定されたニューラルネットワーク演算を通じて入力イメージに対するセグメンテーションスコアを出力することができる。
具体的に、CNNモジュール200は、エンコードレイヤ210及びデコードレイヤ220を含むことができる。エンコードレイヤ210は、入力イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのエンコード済み特徴マップを生成するようにし、デコードレイヤ220は、エンコードレイヤ210で出力された特定のエンコード済み特徴マップに対してデコンボリューション演算を少なくとも一回適用して少なくとも一つのデコード済み特徴マップを生成させることができる。特定の特徴マップは、エンコードレイヤ210で最終的に出力されたエンコード済み特徴マップであり得るが、これに限定されるわけではない。
CNNモジュール200は、特定のデコード済み特徴マップがセグメンテーションスコアそれぞれを含むこともでき、特定のデコード済み特徴マップに対してコンボリューション演算を少なくとも一回適用した結果がセグメンテーションスコアそれぞれを含むこともできる。また、特定のデコード済み特徴マップは、デコードレイヤ220で最終的に出力されたデコード済み特徴マップであり得るが、これに限定されるわけではない。
学習装置100は、CNNモジュールをもって、ソフトマックスレイヤ230で出力されたセグメンテーションスコアそれぞれに対してソフトマックス演算を少なくとも一回適用させて、セグメンテーションスコアのそれぞれの値が0と1との間の範囲の値を有するように正規化されたソフトマックススコアそれぞれを生成させることができる。
ソフトマックスレイヤ230でソフトマックススコアそれぞれが生成されると、学習装置100はCNNモジュール200をもって、(i)ソフトマックススコアそれぞれに対して、ソフトマックススコアとそれに対応する原本正解とを参照してソフトマックスロスを出力するための演算である、多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成させ、(ii)ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させてそれぞれのエンベディングロスを生成し、それぞれのエンベディングロスは、CNNモジュールの学習プロセスを遂行する途中に車線それぞれのセグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、車線それぞれのセグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるようにするのに使用される。ここで、ピクセルエンベディング演算と多項ロジスティックロス演算に関して詳しく説明することにする。
先に述べたように、ピクセルエンベディング演算は、車線それぞれのセグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、車線それぞれのセグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるようにするCNNモジュールを学習するのに使用されるエンベディングロスそれぞれを生成する。
Figure 0006916548
エンベディングロスそれぞれは、前記数式を利用して算出される。各文字の意味するところを説明すると、入力イメージが車線及び少なくとも一つの背景などを含む複数個のクラスタを含むとする場合、NCは前記入力イメージ上の車線及び背景などを含むクラスタの個数、NCはそれぞれの前記クラスタ内のピクセルの個数、μはそれぞれのクラスタに含まれているピクセルそれぞれに対応するソフトマックススコアのそれぞれの平均、
Figure 0006916548
はそれぞれのピクセルに対応するソフトマックススコア及びそれぞれのピクセルに対応するμを参照して算出された分散のうち最大値、
Figure 0006916548
は互いに異なるクラスタに対応するμ間の差のうち最小値を意味する。
前記数式において、
Figure 0006916548
部分は分散に関するロスを意味し、
Figure 0006916548
部分は平均に関するロスを意味する。分母の
Figure 0006916548
は、正規化のためのものである。ここで、
Figure 0006916548
の代わりに使用されるが、なぜなら
Figure 0006916548
で割るとエンベディングロスがかなり大きくなってソフトマックスロスと均衡が合わないからである。このようなエンベディングロスは、同じ車線内のピクセルに対応するセグメンテーションスコア間の分散を
Figure 0006916548
以下の値に減らし、互いに異なる車線内のピクセルの平均間の差を
Figure 0006916548
以上の値に増やすことができる。本発明のエンベディングロスは、前記数式を通じて演算され得るが、これに限定されるわけではない。
次に、多項ロジスティックロス演算について説明すると、これはソフトマックススコア及びこれに対応する原本正解を参照してソフトマックスロスを出力する演算である。
Figure 0006916548
前記数式により、多項ロジスティックロスそれぞれが算出され得る。ここで、sは入力イメージ一つに含まれるピクセルの個数、lは第iピクセルがこれに対応する原本正解ラベル上でどのクラスタに属するのかを示すワンホットエンコード(One−Hot−Encoding)ベクトル、P(i)はそれぞれのピクセルに対応するそれぞれのソフトマックススコアを意味する。
ここで、それぞれのソフトマックススコアは、それぞれのピクセルがどのクラスタに属するのかをベクトル内の最大の元素値を通じて指し示すが、(i)ワンホットエンコードベクトルを示す1と(ii)ソフトマックススコアの対数であるベクトルとの間にベクトル内積(Vector Dot Product)演算が遂行されるのである。例えば、2番目の車線に含まれる特定ピクセルのソフトマックススコアが(0.1、0.8、0.1)及びlベクトルが(0、1、0)と表現されるのであれば、特定ピクセルのロス値は−1×log(0.8)として算出される。このような方式で計算されたピクセルごとのロス値それぞれが足し合わされた後、ピクセルの個数で割られてソフトマックスロスが生成され得る。それぞれのソフトマックスロスは、前記数式を通じて算出され得るが、これに限定されるわけではない。
前記ロスレイヤ240で出力されたそれぞれのソフトマックスロス及びそれぞれのエンベディングロスは、バックプロパゲーションを通じてCNN装置の少なくとも一つのパラメータを学習するのに使用される。
以後、CNNモジュール200の学習プロセスが完了した場合にテスト装置が遂行したプロセスについては、図2を参照して説明する。
図2を参照すると、CNNモジュール200が入力イメージを受信してデコードレイヤ220の出力としてセグメンテーションスコアそれぞれを生成し、ソフトマックスレイヤ230で前記セグメンテーションスコアそれぞれに対してソフトマックス演算を少なくとも一回適用する。テストプロセスでは前記レイヤのパラメータがすべて学習された状態であるので、ロスを求める過程とバックプロパゲーション過程は省略される。
図3は、それぞれの車線のそれぞれの位置によってそれぞれの車線内のピクセル数の分散それぞれが特定の閾値以上であるイメージの例示である。
図3を参照すると、図3のイメージ上でそれぞれの車線のピクセル数がピクセルの位置によって不均衡であることが分かる。すなわち、近距離領域に位置するそれぞれの車線は、それぞれの車線にピクセルが多いために厚く見えるが、遠距離領域に位置するそれぞれの車線のピクセルは、それぞれの車線にピクセルが少ないために薄く見える。よって、車線のピクセル数の分散が大きく表れる。そのような理由により、少なくとも一つの分散が特定の臨界値以上である場合、本発明によるセグメンテーション方法が適用されて、車線を検出するのにさらに正確な効果が得られるのである。
図4aは、図3が従来の技術にしたがってセグメンテーションイメージのセグメンテーションスコアを示した図面であり、図4bは、図3が本発明の例示にしたがってセグメンテーションイメージのセグメンテーションスコアを示した図面である。
図4aを参照すると、車線ピクセルが相対的に少ない特定領域のセグメンテーションスコアは、車線ピクセルが相対的に多い所定の領域のセグメンテーションスコアと大きく差があるであろう。この際、特定領域は、遠距離に位置する車線ピクセルまたはいくつかの理由によって相対的に少ない車線ピクセルを含むことができる。そして、所定の領域は、近距離に位置する車線ピクセルまたはいくつかの理由によって相対的に多くの車線ピクセルを含むことができる。例えば、図4aの最も左側車線を参考にすると、最も上側のピクセル数が少ない車線のセグメンテーションスコアは0.89であるが、中間部分と最も下側部分のセグメンテーションスコアはそれぞれ1.05、1.12である。よって、最も左側車線のセグメンテーションスコアとの間に大きな差が見られる。図4aの最も右側車線もやはり同様に、中間部分と最も下側部分のセグメンテーションスコアがそれぞれ2.02、2.09であるのに対して、最も上側部分のセグメンテーションスコアは1.72である。
特定領域に車線ピクセルが少ししかない場合には、車線のピクセルでない道路のピクセルが多いことから、CNNモジュール200が特定領域のピクセルを車線と判断する蓋然性が少ない。したがって、セグメンテーション結果が出力された際に、車線ピクセルが少ない特定領域がぼやけて表現され得る。
それに対して、図4bのように、バックプロパゲーションを通じてCNN装置が学習されたので、最も左側車線の一番上、中間、一番下のセグメンテーションスコアが互いにほぼ同じに算出され得る。同様に、中間車線の上側部分と下側部分のセグメンテーションスコアも互いにほぼ同じように算出され得る。そして、最も右側車線の一番上、中間、一番下のセグメンテーションスコアも互いにほぼ同じように算出され得る。
学習方法及びテスト方法は、自律走行自動車のレベル4を満たすために必要なHDマップとのコラボレーションを支援するのに使用され得る。
本発明の技術分野における通常の技術者に理解され得るところとして、上記で説明されたイメージ、例えば、原本イメージ、原本ラベル、及び追加ラベルのようなイメージデータの送受信が学習装置及びテスト装置の各通信部により行われ得、特徴マップと演算を遂行するためのデータが学習装置及びテスト装置のプロセッサ(及び/又はメモリ)によって保有/維持され得、コンボリューション演算、デコンボリューション演算、ロス値演算の過程が主に学習装置及びテスト装置のプロセッサによって遂行され得るが、本発明がこれに限定されはしないであろう。
また、以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(floptical disk)のような磁気−光メディア(magneto−optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行される高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (8)

  1. 少なくとも一つの車線を有する入力イメージをセグメンテーションする習方法において、
    (a)前記入力イメージが取得されると、学習装置が、CNN(Convolutional Neural Network)モジュールをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて特徴マップを生成し、前記特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記入力イメージ上のそれぞれのピクセルに対するそれぞれのセグメンテーションスコア(Segmentation Score)を生成させる段階;
    (b)前記学習装置が、前記CNNモジュールをもって、前記それぞれのセグメンテーションスコアに対して、ソフトマックス演算(Softmax Operation)を少なくとも一回適用させてそれぞれのソフトマックススコアを生成させる段階;
    (c)前記学習装置が、前記CNNモジュールをもって、(I)(i)前記ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成するようにし、(ii)前記ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(II)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させる段階;
    を含むことを特徴とする方法。
  2. Figure 0006916548
    前記エンベディングロスそれぞれは、前記数式を通じて算出され、
    前記入力イメージが前記車線及び少なくとも一つの背景部分を有する複数個のクラスタを含むとすると、NCは前記入力イメージ上の前記車線及び前記背景部分を含む前記クラスタの個数、NCはそれぞれの前記クラスタ内のピクセルの個数、μはそれぞれの前記クラスタに含まれているピクセルそれぞれに対応するソフトマックススコアのそれぞれの平均、
    Figure 0006916548
    はそれぞれの前記ピクセルに対応する前記ソフトマックススコア及びそれぞれの前記ピクセルに対応する前記μを参照して算出された分散のうち最大値、
    Figure 0006916548
    は互いに異なるクラスタに対応するμ間の差のうち最小値を意味することを特徴とする請求項1に記載の方法。
  3. それぞれの前記多項ロジスティックロスは、次の数式を利用して算出され、
    Figure 0006916548
    ここで、sは前記入力イメージ一つに含まれる前記ピクセルの個数、lは第iピクセルがこれに対応する原本正解ラベル上でどのクラスタに属するのかを示すワンホットエンコード(One−Hot−Encoding)ベクトル、P(i)は、前記ピクセルそれぞれに対応するそれぞれのソフトマックスコアを意味することを特徴とする請求項1に記載の方法。
  4. 少なくとも一つの車線を有するテストイメージをセグメンテーションするテスト方法において、
    (a)学習装置が、(1)CNN(Convolutional Neural Network)モジュールをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて学習用特徴マップを生成した後、前記学習用特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記トレーニングイメージ上のそれぞれのピクセルに対する学習用セグメンテーションスコア(Segmentation Score)それぞれを生成させ;(2)前記CNNモジュールをもって、前記学習用セグメンテーションスコアそれぞれに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させて学習用ソフトマックススコアそれぞれを生成するようにし;(3)前記CNNモジュールをもって、(I)(i)前記学習用ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてソフトマックスロスそれぞれを生成させ、(ii)前記学習用ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記学習用セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記学習用セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(II)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させた状態で、前記テストイメージが取得されると、テスト装置が、前記CNNモジュールをもって前記テストイメージに対してコンボリューション演算を少なくとも一回適用させてテスト用特徴マップを生成した後、前記テスト用特徴マップに対してデコンボリューション演算を適用させて前記テストイメージ上のそれぞれのピクセルに対するテスト用セグメンテーションスコアそれぞれを生成させる段階;及び
    (b)前記テスト装置が、前記CNNモジュールをもって、前記テスト用セグメンテーションスコアそれぞれに対してソフトマックス演算を適用させてテスト用ソフトマックススコアそれぞれを生成させる段階;
    を含むことを特徴とする方法。
  5. 少なくとも一つの車線を有する入力イメージをセグメンテーションする学習装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)CNN(Convolutional Neural Network)モジュールをもって、前記入力イメージに対してコンボリューション演算を少なくとも一回適用させて特徴マップを生成し、前記特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記入力イメージ上のそれぞれのピクセルに対するそれぞれのセグメンテーションスコア(Segmentation Score)を生成させるプロセス、(II)前記CNNモジュールをもって、前記それぞれのセグメンテーションスコアに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させてそれぞれのソフトマックススコアを生成させるプロセス、(III)前記CNNモジュールをもって、(1)(i)前記ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてそれぞれのソフトマックスロスを生成させ、(ii)前記ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(2)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする学習装置。
  6. Figure 0006916548
    前記エンベディングロスそれぞれは、前記数式を通じて算出され、
    前記入力イメージが前記車線及び少なくとも一つの背景部分を有する複数個のクラスタを含むとすると、NCは前記入力イメージ上の前記車線及び前記背景部分を含む前記クラスタの個数、NCはそれぞれの前記クラスタ内のピクセルの個数、μはそれぞれの前記クラスタに含まれたピクセルそれぞれに対応するソフトマックススコアのそれぞれの平均、
    Figure 0006916548
    はそれぞれの前記ピクセルに対応する前記ソフトマックススコア及びそれぞれの前記ピクセルに対応する前記μを参照して算出された分散のうち最大値、
    Figure 0006916548
    は互いに異なるクラスタに対応するμ間の差のうち最小値を意味することを特徴とする請求項5に記載の学習装置。
  7. それぞれの前記多項ロジスティックロスは、次の数式を利用して算出され、
    Figure 0006916548
    ここで、sは前記入力イメージ一つに含まれる前記ピクセルの個数、lは第iピクセルがこれに対応する原本正解ラベル上でどのクラスタに属するのかを示すワンホットエンコード(One−Hot−Encoding)ベクトル、P(i)は前記ピクセルそれぞれに対応するそれぞれのソフトマックススコアを意味することを特徴とする請求項5に記載の学習装置。
  8. 少なくとも一つの車線を有するテストイメージをセグメンテーションするテスト装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    学習装置が、(1)CNN(Convolutional Neural Network)モジュールをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて学習用特徴マップを生成した後、前記学習用特徴マップに対してデコンボリューション演算を少なくとも一回適用させて前記トレーニングイメージ上のそれぞれのピクセルに対する学習用セグメンテーションスコア(Segmentation Score)それぞれを生成させ、(2)前記CNNモジュールをもって、前記学習用セグメンテーションスコアそれぞれに対してソフトマックス演算(Softmax Operation)を少なくとも一回適用させて学習用ソフトマックススコアそれぞれを生成させ、(3)前記CNNモジュールをもって、(3−1)(i)前記学習用ソフトマックススコアそれぞれに対して多項ロジスティックロス演算(Multinomial Logistic Loss Operation)を少なくとも一回適用させてソフトマックスロスそれぞれを生成させ、(ii)前記学習用ソフトマックススコアそれぞれに対してピクセルエンベディング演算(Pixel Embedding Operation)を少なくとも一回適用させて、前記車線それぞれの前記学習用セグメンテーションスコアのそれぞれの平均のうち異なる車線間の平均の差は大きくなるようにし、前記車線それぞれの前記学習用セグメンテーションスコアの分散のうちそれぞれの同一車線内部の分散は小さくなるように前記CNNモジュールの学習を誘導するそれぞれのエンベディングロスを生成した後、(3−2)それぞれの前記ソフトマックスロス及びそれぞれの前記エンベディングロスを利用したバックプロパゲーションを通じて、前記CNNモジュールの少なくとも一つのパラメータを学習させた状態で、(I)前記CNNモジュールをもって、前記テストイメージに対してコンボリューション演算を適用させてテスト用特徴マップを生成した後、前記テスト用特徴マップに対してデコンボリューション演算を適用させて前記テストイメージ上のそれぞれのピクセルに対するテスト用セグメンテーションスコアそれぞれを生成させるプロセス、及び(II)前記CNNモジュールをもって、前記テスト用セグメンテーションスコアそれぞれに対してソフトマックス演算を適用させてテスト用ソフトマックススコアそれぞれを生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とするテスト装置。
JP2020001763A 2019-01-23 2020-01-08 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Active JP6916548B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/255,339 2019-01-23
US16/255,339 US10311578B1 (en) 2019-01-23 2019-01-23 Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same

Publications (2)

Publication Number Publication Date
JP2020119531A JP2020119531A (ja) 2020-08-06
JP6916548B2 true JP6916548B2 (ja) 2021-08-11

Family

ID=66673298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001763A Active JP6916548B2 (ja) 2019-01-23 2020-01-08 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置

Country Status (5)

Country Link
US (1) US10311578B1 (ja)
EP (1) EP3686842B1 (ja)
JP (1) JP6916548B2 (ja)
KR (1) KR102252155B1 (ja)
CN (1) CN111476811B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10890916B2 (en) * 2019-01-30 2021-01-12 StradVision, Inc. Location-specific algorithm selection for optimized autonomous driving
US10776673B2 (en) * 2019-01-31 2020-09-15 StradVision, Inc. Learning method and learning device for sensor fusion to integrate information acquired by radar capable of distance estimation and information acquired by camera to thereby improve neural network for supporting autonomous driving, and testing method and testing device using the same
CN112241728B (zh) * 2020-10-30 2023-04-07 中国科学院合肥物质科学研究院 采用注意力机制学习上下文信息的实时车道线检测方法及系统
CN112329908A (zh) * 2021-01-04 2021-02-05 中国人民解放军国防科技大学 一种用于神经网络模型测试的图像生成方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US9558268B2 (en) * 2014-08-20 2017-01-31 Mitsubishi Electric Research Laboratories, Inc. Method for semantically labeling an image of a scene using recursive context propagation
US10387773B2 (en) * 2014-10-27 2019-08-20 Ebay Inc. Hierarchical deep convolutional neural network for image classification
CN104408743A (zh) * 2014-11-05 2015-03-11 百度在线网络技术(北京)有限公司 图像分割方法和装置
KR102623680B1 (ko) * 2015-02-10 2024-01-12 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
JP6663926B2 (ja) * 2015-05-13 2020-03-13 グーグル エルエルシー DeepStereo:実世界の画像から新たなビューを予測するための学習
US9633282B2 (en) * 2015-07-30 2017-04-25 Xerox Corporation Cross-trained convolutional neural networks using multimodal images
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US9767381B2 (en) * 2015-09-22 2017-09-19 Xerox Corporation Similarity-based detection of prominent objects using deep CNN pooling layers as features
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US9972092B2 (en) 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
US9830529B2 (en) * 2016-04-26 2017-11-28 Xerox Corporation End-to-end saliency mapping via probability distribution prediction
US9947102B2 (en) * 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method
US10345449B2 (en) * 2016-12-02 2019-07-09 Verizon Connect Ireland Limited Vehicle classification using a recurrent neural network (RNN)
US9953236B1 (en) * 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
US9947103B1 (en) * 2017-10-03 2018-04-17 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10095977B1 (en) * 2017-10-04 2018-10-09 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10089743B1 (en) * 2017-10-05 2018-10-02 StradVision, Inc. Method for segmenting an image and device using the same
CN108470320B (zh) * 2018-02-24 2022-05-20 中山大学 一种基于cnn的图像风格化方法及系统
US10140544B1 (en) * 2018-04-02 2018-11-27 12 Sigma Technologies Enhanced convolutional neural network for image segmentation
GB201809604D0 (en) * 2018-06-12 2018-07-25 Tom Tom Global Content B V Generative adversarial networks for image segmentation
CN109145939B (zh) * 2018-07-02 2021-11-02 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法

Also Published As

Publication number Publication date
KR20200091781A (ko) 2020-07-31
KR102252155B1 (ko) 2021-05-17
CN111476811A (zh) 2020-07-31
JP2020119531A (ja) 2020-08-06
US10311578B1 (en) 2019-06-04
CN111476811B (zh) 2023-08-29
EP3686842B1 (en) 2022-07-13
EP3686842A1 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6916548B2 (ja) 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
JP6847464B2 (ja) 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same}
JP6912835B2 (ja) 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102373456B1 (ko) 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP6849932B2 (ja) 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置
JP6855091B2 (ja) ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置
JP6810415B2 (ja) 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置
JP6863619B2 (ja) コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network}
JP6869559B2 (ja) 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same}
JP6856853B2 (ja) 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
KR20200047307A (ko) 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6957050B2 (ja) モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same}
JP2020038666A (ja) 自律走行状況で障害物検出のための学習用データセットの生成方法及びこれを利用したコンピューティング装置、学習方法及び学習装置
CN111476362A (zh) 确定fl值的方法及装置
JP6979707B2 (ja) リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME}
CN116416212B (zh) 路面破损检测神经网络训练方法及路面破损检测神经网络

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210709

R150 Certificate of patent or registration of utility model

Ref document number: 6916548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250