JP2020068013A - 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} - Google Patents
障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} Download PDFInfo
- Publication number
- JP2020068013A JP2020068013A JP2019161673A JP2019161673A JP2020068013A JP 2020068013 A JP2020068013 A JP 2020068013A JP 2019161673 A JP2019161673 A JP 2019161673A JP 2019161673 A JP2019161673 A JP 2019161673A JP 2020068013 A JP2020068013 A JP 2020068013A
- Authority
- JP
- Japan
- Prior art keywords
- test
- feature map
- learning
- rows
- row
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 151
- 238000012360 testing method Methods 0.000 title claims description 250
- 230000011218 segmentation Effects 0.000 claims abstract description 73
- 238000013527 convolutional neural network Methods 0.000 claims description 48
- 238000012549 training Methods 0.000 claims description 29
- 238000004873 anchoring Methods 0.000 claims description 18
- 238000000638 solvent extraction Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 5
- 230000001902 propagating effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 26
- 238000001514 detection method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000010998 test method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (24)
- 少なくとも一つの入力イメージから少なくとも一つの近接障害物の少なくとも一つの下段ライン(bottom line)を基準に少なくとも一つのROI(Region of Interest)を検出するためのCNN(Convolutional Neural Network)のパラメータを学習する方法において、
(a)学習装置が、第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、前記入力イメージから逐次的に第1エンコード済み特徴マップないし第nエンコード済み特徴マップを各々生成するようにする段階;
(b)前記学習装置が、第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記第nエンコード済み特徴マップから逐次的に第nデコード済み特徴マップないし第1デコード済み特徴マップを生成するようにする段階;
(c)前記第nデコード済み特徴マップないし前記第1デコード済み特徴マップの中から少なくとも一つの特定デコード済み特徴マップをその行(row)方向である第1方向及びその列(column)方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記学習装置は、前記第nデコード済み特徴マップないし前記第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに前記近接障害物各々の前記下段ライン各々が位置すると推定される特定の行各々を示す少なくとも一つの障害物セグメンテーション結果を生成する段階;
(d)前記学習装置が、前記特定の行の各々をもとに推定されるアンカリング行(anchoring row)各々のピクセルのうち、各々の前記ROI検出に利用されるアンカーボックス(anchor box)を生成するための各々の基礎としての前記列ごとのアンカー各々を決定する段階;
(e)前記学習装置が、RPN(Region Proposal Network)をもって、(i)前記アンカーボックス各々を参照に少なくとも一つのROIバウンディンボックス(bounding box)を生成するようにするものの、前記アンカーボックスのうち少なくとも一つは、前記アンカー各々を基礎に推定され、(ii)前記ROIバウンディンボックス及びそれに対応する少なくとも一つの第1原本正解(Ground Truth)イメージを参照して少なくとも一つの第1ロスを生成するようにするものの、前記ROIバウンディンボックスは、前記アンカーボックスのうち、特定物体を含むものと推定される確率が高い特定のアンカーボックスであり、前記第1原本正解イメージは、前記入力イメージ内の前記特定物体を実際に含むバウンディンボックスを表示する段階;及び
(f)前記学習装置は、前記第1ロスをバックプロパゲーション(backpropagation)して、前記CNNの前記パラメータを学習する段階;
を含むことを特徴とする方法。 - 前記(c)段階は、
(c1)前記グリッドの各セルが、前記少なくとも一つのデコード済み特徴マップを前記第1方向に第1間隔ずつ区画し、前記第2方向に第2間隔ずつ区画することで生成されるとした場合、前記学習装置は、前記各々の列ごとに前記各々の行の特徴各々をチャネル方向へコンカチネート(concatenate)して、少なくとも一つの修正済み特徴マップを生成する段階;及び
(c2)前記学習装置は、前記修正済み特徴マップを参照して、前記列ごとにコンカチネートされた各チャネルにおける各々の前記近接障害物の前記下段ライン各々に対する各々の推定位置を確認することにより、前記列ごとに前記行の中から前記近接障害物各々の前記下段ライン各々が位置すると推定される行を示す前記障害物セグメンテーション結果を生成するものの、前記障害物セグメンテーション結果は、前記列ごとの各々のチャネルに対応する各々の値をノーマライジング(normalizing)するソフトマックス演算によって生成される段階;
を含むことを特徴とする請求項1に記載の方法。 - 前記(c)段階は、
(c3)前記学習装置は、(i)少なくとも一つの第2原本正解イメージ上に、前記列ごとに前記近接障害物各々の前記下段ライン各々が位置する実際の行が表示される場合、前記実際の行の各々の位置及び(ii)前記障害物セグメンテーション結果上で、前記近接障害物の各々の前記下段ライン各々が前記列ごとに位置するものと推定される前記特定の行各々の位置を参照して、少なくとも一つの第2ロスを生成する段階;
を含み、
前記(f)段階で、
前記学習装置は前記第1ロスおよび前記第2ロスをバックプロパゲーションして、前記CNNの前記パラメータを学習することを特徴とする請求項2に記載の方法。 - 前記(e)段階で、
前記アンカーボックスの中で、少なくとも一つの(i)スケール (scale)及び(ii)アスペクト比(aspect ratio)のうち少なくとも一つを参考にして、前記アンカー各々の複数の互いに異なるアンカーボックスを設定することを特徴とする請求項1に記載の方法。 - 前記各々の列は、前記第1方向に一つ以上のピクセルを含み、前記各々の行は、前記第2方向に一つ以上のピクセルを含むことを特徴とする請求項1に記載の方法。
- 前記第1原本正解イメージは、前記入力イメージがNc個の行に分割された状態で、前記列ごとに前記近接障害物各々の前記下段ライン各々が、前記行の中から実際に位置する行に対する情報を含み、前記障害物セグメンテーション結果は、前記入力イメージが前記Nc個の行に分割された状態で、前記列ごとに前記近接障害物各々の前記下段ライン各々が前記行の中に位置するものと推測される行を示すことを特徴とする請求項1に記載の方法。
- 前記(c)段階で、
前記各々の列に対して、前記近接障害物各々の前記下段ライン各々が存在すると推定されると、前記Nc個の行の中で、前記各々の列ごとに前記各々の特定の行にある前記下段ライン各々の推定位置各々は対応する最も大きい値を有し、残りの行にある位置は小さい値を有するように前記障害物セグメンテーションの結果値が生成されることを特徴とする請求項6に記載の方法。 - 少なくとも一つのテストイメージから、少なくとも一つのテスト用近接障害物の少なくとも一つの下段ラインを基準に、少なくとも一つのテスト用ROIを検出するためのCNNをテストする方法において、
(a)(1)第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージから逐次的に学習用第1エンコード済み特徴マップないし学習用第nエンコード済み特徴マップを各々生成するようにするプロセス、(2)第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記学習用第nエンコード済み特徴マップから逐次的に学習用第nデコード済み特徴マップないし学習用第1デコード済み特徴マップを生成するようにするプロセス、(3)前記学習用第nデコード済み特徴マップないし前記学習用第1デコード済み特徴マップの中から少なくとも一つの特定学習用デコード済み特徴マップをその行方向である第1方向及びその列方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記学習用第nデコード済み特徴マップないし前記学習用第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに少なくとも一つの学習用近接障害物各々の下段ライン各々が位置すると推定される学習用特定の行の各々を示す、少なくとも一つの学習用障害物セグメンテーション結果を生成するようにするプロセス、(4)前記学習用特定の行の各々をもとに推定される学習用アンカリング行各々のピクセルのうち、各々の前記学習用ROI検出に利用される学習用アンカーボックスを生成するための各々の基礎として前記列ごとの学習用アンカー各々を決定するプロセス、(5)RPN(Region Proposal Network)をもって、(i)前記アンカーボックス各々を参照に少なくとも一つの学習用ROIバウンディンボックス(bounding box)を生成するようにするものの、前記学習用アンカーボックスのうち少なくとも一つは、前記学習用アンカー各々を基礎に推定され、(ii)前記学習用ROIバウンディンボックス及びそれに相応する少なくとも一つの第1原本正解イメージを参照して少なくとも一つの第1ロスを生成するようにするものの、前記学習用ROIバウンディンボックスは、前記学習用アンカーボックスのうち、学習用特定物体を含むものと推定される確率が高い特定の学習用アンカーボックスであり、前記第1原本正解イメージは、前記トレーニングイメージ内の前記学習用特定物体を実際に含む学習用バウンディンボックスを示すプロセス、及び(6)前記第1ロスをバックプロパゲーションして、前記CNNのパラメータを学習するプロセスを学習装置が遂行した状態で、テスト装置が前記テストイメージを獲得する段階;
(b)前記テスト装置が、前記第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、前記テストイメージから逐次的にテスト用第1エンコード済み特徴マップないしテスト用第nエンコード済み特徴マップを各々生成するようにする段階;
(c)前記テスト装置が、前記第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記テスト用第nエンコード済み特徴マップから逐次的にテスト第nデコード済み特徴マップないしテスト用第1デコード済み特徴マップを生成するようにする段階;
(d)前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップの中から少なくとも一つの特定テスト用デコード済み特徴マップをその行方向である第1方向、その列方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記テスト装置は、前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに前記テスト用近接障害物各々の下段ライン各々が位置すると推定されるテスト用特定の行の各々を示す、少なくとも一つのテスト用障害物セグメンテーション結果を生成する段階;
(e)前記テスト装置が、前記テスト用特定の行の各々をもとに推定されるテスト用アンカリング行各々のピクセルのうち、各々のテスト用ROI検出に利用されるテスト用アンカーボックスを生成するための各々の基礎として前記列ごとのテスト用アンカー各々を決定する段階、及び
(f)前記テスト装置が、前記RPNをもって、前記テスト用アンカーボックス各々を参照に少なくとも一つのテスト用ROIバウンディンボックスを生成するようにするものの、前記テスト用アンカーボックスのうち少なくとも一つは、前記テスト用アンカー各々を基礎に推定される段階;
を含むことを特徴とする方法。 - 前記(d)段階は、
(d1)前記グリッドの各セルが、前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップ中から少なくとも一つの特定テスト用デコード済み特徴マップを前記第1方向に第1間隔ずつ区画し、前記第2方向に第2間隔ずつ区画することで生成されるとした場合、前記テスト装置が前記各々の列ごとに前記各々の行のテスト用特徴各々をチャネル方向へコンカチネートして、少なくとも一つの修正済みテスト用特徴マップを生成する段階;及び
(d2)前記テスト装置が前記修正済みテスト用特徴マップを参照して、前記列ごとにコンカチネートされた各チャネルにおける各々の前記テスト用近接障害物の前記下段ライン各々に対する各々の推定位置を確認することにより、前記列ごとに前記行の中から前記近接障害物各々の前記下段ライン各々が位置すると推定される行を示す前記テスト用障害物セグメンテーション結果を生成するものの、前記テスト用障害物セグメンテーション結果は、前記列ごとの各々のチャネルに対応する各々の値をノーマライジングするソフトマックス演算によって生成される段階;
を含むことを特徴とする請求項8に記載の方法。 - 前記(f)段階で、
前記テスト用アンカーボックスのうち少なくとも一つの(i)スケール及びアスペクト比のうち少なくとも一つを参考にして、前記テスト用アンカー各々の複数の互いに異なるテスト用アンカーボックスを設定することを特徴とする請求項8に記載の方法。 - 前記各々の列は、前記第1方向に一つ以上のピクセルを含み、前記各々の行は、前記第2方向に一つ以上のピクセルを含むことを特徴とする請求項8に記載の方法。
- 前記第1原本正解イメージは、前記トレーニングイメージがNc個の行に分割された状態で、前記列ごとに前記学習用近接障害物各々の前記下段ライン各々が、前記行の中から実際に位置する行に対する情報を含み、前記学習用障害物セグメンテーション結果は、前記トレーニングイメージが前記Nc個の行に分割された状態で、前記列ごとに前記学習用近接障害物各々の前記下段ライン各々が前記行の中に位置するものと推測される行を示すことを特徴とし、
前記(d)段階で、
前記テストイメージがNc個の行に分割された状態で、前記各々の列に対して、前記テスト用近接障害物各々の前記下段ライン各々が存在すると推定されると、前記Nc個の行の中で、前記各々のテスト用特定の行にある前記下段ライン各々の推定位置各々は前記列ごとに対応する最も大きい値を有し、残りの行にある位置は小さい値を有するように前記テスト用障害物セグメンテーションの結果値が生成されることを特徴とする請求項8に記載の方法。 - 少なくとも一つの入力イメージから、少なくとも一つの近接障害物の少なくとも一つの下段ライン(bottom line)を基準に、少なくとも一つのROI(Region of Interest)を検出するためのCNN(Convolutional Neural Network)のパラメータを学習する学習装置おいて、
前記入力イメージを獲得する通信部;及び
(I) 第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、前記入力イメージから逐次的に第1エンコード済み特徴マップないし第nエンコード済み特徴マップを各々生成するようにするプロセス、(II)第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記第nエンコード済み特徴マップから逐次的に第nデコード済み特徴マップないし第1デコード済み特徴マップを生成するようにするプロセス、(III)前記第nデコード済み特徴マップないし前記第1デコード済み特徴マップの中から少なくとも一つの特定デコード済み特徴マップをその行(row)方向である第1方向及びその列(column)方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記第nデコード済み特徴マップないし前記第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに前記近接障害物各々の前記下段ライン各々が位置すると推定される特定の行各々を示す少なくとも一つの障害物セグメンテーション結果を生成するプロセス;(IV)前記特定の行の各々をもとに推定されるアンカリング行(anchoring row)各々のピクセルのうち、各々の前記ROI検出に利用されるアンカーボックス(anchor box)を生成するための各々の基礎としての前記列ごとのアンカー各々を決定するプロセス(V) RPN(Region Proposal Network)をもって、(i)前記アンカーボックス各々を参照に少なくとも一つのROIバウンディンボックス(bounding box)を生成するようにするものの、前記アンカーボックスのうち少なくとも一つは、前記アンカー各々を基礎に推定され、(ii)前記ROIバウンディンボックス及びそれに対応する少なくとも一つの第1原本正解(Ground Truth)イメージを参照して少なくとも一つの第1ロスを生成するようにするものの、前記ROIバウンディンボックスは、前記アンカーボックスのうち、特定物体を含むものと推定される確率が高い特定のアンカーボックスであり、前記第1原本正解イメージは、前記入力イメージ内の前記特定物体を実際に含むバウンディンボックスを表示するプロセス、及び(VI)前記第1ロスをバックプロパゲーション(backpropagation)して、前記CNNの前記パラメータを学習するプロセスを遂行プロセッサ;
を含むことを特徴とする学習装置。 - 前記(III)プロセスは、
(III−I)前記グリッドの各セルが、前記少なくとも一つのデコード済み特徴マップを前記第1方向に第1間隔ずつ区画し、前記第2方向に第2間隔ずつ区画することで生成されるとした場合、前記各々の列ごとに前記各々の行の特徴各々をチャネル方向へコンカチネート(concatenate)して、少なくとも一つの修正済み特徴マップを生成するプロセス;及び
(III−2)前記修正済み特徴マップを参照して、前記列ごとにコンカチネートされた各チャネルにおける各々の前記近接障害物の前記下段ライン各々に対する各々の推定位置を確認することにより、前記列ごとに前記行の中から前記近接障害物各々の前記下段ライン各々が位置すると推定される行を示す前記障害物セグメンテーション結果を生成するものの、前記障害物セグメンテーション結果は、前記列ごとの各々のチャネルに対応する各々の値をノーマライジング(normalizing)するソフトマックス演算によって生成されるプロセス;
を含むことを特徴とする請求項13に記載の学習装置。 - 前記(III)プロセスは、
(III−3)(i)少なくとも一つの第2原本正解イメージ上に前記列ごとに前記近接障害物各々の前記下段ライン各々が位置する実際の行が表示される場合、前記実際の行の各々の位置及び(ii)前記障害物セグメンテーション結果上で、前記近接障害物の各々の前記下段ライン各々が前記列ごとに位置するものと推定される前記特定の行各々の位置を参照して、少なくとも一つの第2ロスを生成するプロセス;
を含み、
前記(VI)プロセスで、
前記プロセッサは、前記第1ロス及び前記第2ロスをバックプロパゲーション(backpropagation) して、前記CNNの前記パラメータを学習することを特徴とする請求項13に記載の学習装置。 - 前記(V)プロセスで、
前記アンカーボックスの中で、少なくとも一つの(i)スケール(scale)及び(ii)アスペクト比(aspect ratio)のうち少なくとも一つを参考にして、前記アンカー各々の複数の互いに異なるアンカーボックスを設定することを特徴とする請求項13に記載の学習装置。 - 前記各々の列は、前記第1方向に一つ以上のピクセルを含み、前記各々の行は、前記第2方向に一つ以上のピクセルを含むことを特徴とする請求項13に記載の学習装置。
- 前記第1原本正解イメージは、前記入力イメージがNc個の行に分割された状態で、前記列ごとに前記近接障害物各々の前記下段ライン各々が、前記行の中から実際に位置する行に対する情報を含み、前記障害物セグメンテーション結果は、前記入力イメージが前記Nc個の行に分割された状態で、前記列ごとに前記近接障害物各々の前記下段ライン各々が前記行の中に位置するものと推測される行を示すことを特徴とする請求項13に記載の学習装置。
- 前記(III)プロセスで、前記各々の列に対して、前記近接障害物各々の前記下段ライン各々が存在すると推定されると、前記Nc個の行の中で、前記各々の列ごとに前記各々の特定の行にある前記下段ライン各々の推定位置各々は対応する最も大きい値を有し、残りの行にある位置は小さい値を有するように前記障害物セグメンテーションの結果値が生成されることを特徴とする請求項18に記載の学習装置。
- 少なくとも一つのテストイメージから、少なくとも一つのテスト用近接障害物の少なくとも一つの下段ラインを基準に、少なくとも一つのテスト用ROIを検出するためのCNNをテストするテスト装置において、
(1)第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、少なくとも一つのトレーニングイメージから逐次的に学習用第1エンコード済み特徴マップないし学習用第nエンコード済み特徴マップを各々生成するようにするプロセス、(2)第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記学習用第nエンコード済み特徴マップから逐次的に学習用第nデコード済み特徴マップないし学習用第1デコード済み特徴マップを生成するようにするプロセス、(3)前記学習用第nデコード済み特徴マップないし前記学習用第1デコード済み特徴マップの中から少なくとも一つの特定学習用デコード済み特徴マップをその行方向である第1方向及びその列方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記学習用第nデコード済み特徴マップないし前記学習用第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに少なくとも一つの学習用近接障害物各々の下段ライン各々が位置すると推定される学習用特定の行の各々を示す、少なくとも一つの学習用障害物セグメンテーション結果を生成するようにするプロセス、(4)前記学習用特定の行の各々をもとに推定される学習用アンカリング行各々のピクセルのうち、各々の前記学習用ROI検出に利用される学習用アンカーボックスを生成するための各々の基礎として前記列ごとの学習用アンカー各々を決定するプロセス、(5)RPN(Region Proposal Network)をもって、(i)前記アンカーボックス各々を参照に少なくとも一つの学習用ROIバウンディンボックス(bounding box)を生成するようにするものの、前記学習用アンカーボックスのうち少なくとも一つは、前記学習用アンカー各々を基礎に推定され、(ii)前記学習用ROIバウンディンボックス及びそれに相応する少なくとも一つの第1原本正解イメージを参照して少なくとも一つの第1ロスを生成するようにするものの、前記学習用ROIバウンディンボックスは、前記学習用アンカーボックスのうち、学習用特定物体を含むものと推定される確率が高い特定の学習用アンカーボックスであり、前記第1原本正解イメージは、前記トレーニングイメージ内の前記学習用特定物体を実際に含む学習用バウンディンボックスを示すプロセス、及び(6)前記第1ロスをバックプロパゲーションして、前記CNNのパラメータを学習するプロセスを学習装置が遂行した状態で、前記テストイメージを獲得する通信部;
(I)前記第1コンボリューションレイヤないし第nコンボリューションレイヤをもって、前記テストイメージから逐次的にテスト用第1エンコード済み特徴マップないしテスト用第nエンコード済み特徴マップを各々生成するようにするプロセス;(II)前記第nデコンボリューションレイヤないし第1デコンボリューションレイヤをもって、前記テスト用第nエンコード済み特徴マップから逐次的にテスト第nデコード済み特徴マップないしテスト用第1デコード済み特徴マップを生成するようにするプロセス;(III)前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップの中から少なくとも一つの特定テスト用デコード済み特徴マップをその行方向である第1方向、その列方向である第2方向に分けることで、複数の列と複数の行を有するグリッドの各セルが生成されるとした場合、前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップのうち、少なくとも一部特徴マップの少なくとも一つの特徴を参照することにより、前記列ごとに前記テスト用近接障害物各々の下段ライン各々が位置すると推定されるテスト用特定の行の各々を示す、少なくとも一つのテスト用障害物セグメンテーション結果を生成するプロセス;(IV)前記テスト用特定の行の各々をもとに推定されるテスト用アンカリング行各々のピクセルのうち、各々のテスト用ROI検出に利用されるテスト用アンカーボックスを生成するための各々の基礎として前記列ごとのテスト用アンカー各々を決定するプロセス、及び(V)前記RPNをもって、前記テスト用アンカーボックス各々を参照に少なくとも一つのテスト用ROIバウンディンボックスを生成するようにするものの、前記テスト用アンカーボックスのうち少なくとも一つは、前記テスト用アンカー各々を基礎に推定されるプロセスを遂行するプロセッサ;
を含むことを特徴とするテスト装置。 - 前記(III)プロセスは、
(III−1)前記グリッドの各セルが、前記テスト用第nデコード済み特徴マップないし前記テスト用第1デコード済み特徴マップ中から少なくとも一つの特定テスト用デコード済み特徴マップを前記第1方向に第1間隔ずつ区画し、前記第2方向に第2間隔ずつ区画することで生成されるとした場合、前記各々の列ごとに前記各々の行のテスト用特徴各々をチャネル方向へコンカチネートして、少なくとも一つの修正済みテスト用特徴マップを生成するプロセス;及び
(III−2)前記修正済みテスト用特徴マップを参照して、前記列ごとにコンカチネートした各チャネルにおける各々の前記テスト用近接障害物の前記下段ライン各々に対する各々の推定位置を確認することにより、前記列ごとに前記行の中から前記近接障害物各々の前記下段ライン各々が位置すると推定される行を示す前記テスト用障害物セグメンテーション結果を生成するものの、前記テスト用障害物セグメンテーション結果は、前記列ごとの各々のチャネルに対応する各々の値をノーマライジングするソフトマックス演算によって生成されるプロセス;を含むことを特徴とする請求項20に記載のテスト装置。 - 前記(V)プロセスで、
前記テスト用アンカーボックスの中で、少なくとも一つの(i)スケール 及び(ii)アスペクト比のうち少なくとも一つを参考にして、前記テスト用アンカー各々の複数の互いに異なるテスト用アンカーボックスを設定することを特徴とする請求項20に記載のテスト装置。 - 前記各々の列は、前記第1方向に一つ以上のピクセルを含み、前記各々の行は、前記第2方向に一つ以上のピクセルを含むことを特徴とする請求項20に記載のテスト装置。
- 前記第1原本正解イメージは、前記トレーニングイメージがNc個の行に分割された状態で、前記列ごとに前記学習用近接障害物各々の前記下段ライン各々が、前記行の中から実際に位置する行に対する情報を含み、前記学習用障害物セグメンテーション結果は、前記トレーニングイメージが前記Nc個の行に分割された状態で、前記列ごとに前記学習用近接障害物各々の前記下段ライン各々が前記行の中に位置するものと推測される行を示すことを特徴とし、
前記(III)プロセスで、
前記テストイメージがNc個の行に分割された状態で、前記各々の列に対して、前記テスト用近接障害物各々の前記下段ライン各々が存在すると推定されると、前記Nc個の行の中で、前記各々のテスト用特定の行にある前記下段ライン各々の推定位置各々は前記列ごとに対応する最も大きい値を有し、残りの行にある位置は小さい値を有するように前記テスト用障害物セグメンテーションの結果値が生成されることを特徴とする請求項20に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/171,645 US10438082B1 (en) | 2018-10-26 | 2018-10-26 | Learning method, learning device for detecting ROI on the basis of bottom lines of obstacles and testing method, testing device using the same |
US16/171,645 | 2018-10-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020068013A true JP2020068013A (ja) | 2020-04-30 |
JP6908939B2 JP6908939B2 (ja) | 2021-07-28 |
Family
ID=68101980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019161673A Active JP6908939B2 (ja) | 2018-10-26 | 2019-09-05 | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10438082B1 (ja) |
EP (1) | EP3644240B1 (ja) |
JP (1) | JP6908939B2 (ja) |
KR (1) | KR102280401B1 (ja) |
CN (1) | CN111104838B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11555701B2 (en) | 2019-05-02 | 2023-01-17 | Corelogic Solutions, Llc | Use of a convolutional neural network to auto-determine a floor height and floor height elevation of a building |
WO2021098554A1 (zh) * | 2019-11-20 | 2021-05-27 | Oppo广东移动通信有限公司 | 一种特征提取方法、装置、设备及存储介质 |
US11450008B1 (en) * | 2020-02-27 | 2022-09-20 | Amazon Technologies, Inc. | Segmentation using attention-weighted loss and discriminative feature learning |
CN111524165B (zh) * | 2020-04-22 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标跟踪方法和装置 |
KR102270198B1 (ko) | 2020-06-08 | 2021-06-28 | 주식회사 에스아이에이 | 앵커-프리 rpn 기반의 물체 검출 방법 |
CN112528907B (zh) * | 2020-12-18 | 2024-04-09 | 四川云从天府人工智能科技有限公司 | 锚框生成及其标注框适配方法、装置及计算机存储介质 |
CN112906732B (zh) * | 2020-12-31 | 2023-12-15 | 杭州旷云金智科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN112396044B (zh) * | 2021-01-21 | 2021-04-27 | 国汽智控(北京)科技有限公司 | 车道线属性信息检测模型训练、车道线属性信息检测方法 |
WO2022204905A1 (zh) * | 2021-03-30 | 2022-10-06 | 华为技术有限公司 | 一种障碍物检测方法及装置 |
CN113361326B (zh) * | 2021-04-30 | 2022-08-05 | 国能浙江宁海发电有限公司 | 一种基于计算机视觉目标检测的智慧电厂管控系统 |
CN114038239B (zh) * | 2021-11-08 | 2022-11-25 | 青岛海信网络科技股份有限公司 | 一种车辆碰撞预警方法及装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697786B2 (en) * | 2005-03-14 | 2010-04-13 | Sarnoff Corporation | Method and apparatus for detecting edges of an object |
US9202144B2 (en) * | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
JP6265095B2 (ja) * | 2014-09-24 | 2018-01-24 | 株式会社デンソー | 物体検出装置 |
US9811756B2 (en) * | 2015-02-23 | 2017-11-07 | Mitsubishi Electric Research Laboratories, Inc. | Method for labeling images of street scenes |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US10019631B2 (en) * | 2015-11-05 | 2018-07-10 | Qualcomm Incorporated | Adapting to appearance variations when tracking a target object in video sequence |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
US10032067B2 (en) * | 2016-05-28 | 2018-07-24 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
KR102628654B1 (ko) * | 2016-11-07 | 2024-01-24 | 삼성전자주식회사 | 차선을 표시하는 방법 및 장치 |
CN108073876B (zh) * | 2016-11-14 | 2023-09-19 | 北京三星通信技术研究有限公司 | 面部解析设备和面部解析方法 |
US10621747B2 (en) * | 2016-11-15 | 2020-04-14 | Magic Leap, Inc. | Deep learning system for cuboid detection |
US10380741B2 (en) * | 2016-12-07 | 2019-08-13 | Samsung Electronics Co., Ltd | System and method for a deep learning machine for object detection |
US10262237B2 (en) * | 2016-12-08 | 2019-04-16 | Intel Corporation | Technologies for improved object detection accuracy with multi-scale representation and training |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
US10635927B2 (en) * | 2017-03-06 | 2020-04-28 | Honda Motor Co., Ltd. | Systems for performing semantic segmentation and methods thereof |
CN107169421B (zh) * | 2017-04-20 | 2020-04-28 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
US10460180B2 (en) * | 2017-04-20 | 2019-10-29 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
US10579897B2 (en) * | 2017-10-02 | 2020-03-03 | Xnor.ai Inc. | Image based object detection |
US10223610B1 (en) * | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN108681718B (zh) * | 2018-05-20 | 2021-08-06 | 北京工业大学 | 一种无人机低空目标精准检测识别方法 |
-
2018
- 2018-10-26 US US16/171,645 patent/US10438082B1/en active Active
-
2019
- 2019-08-27 KR KR1020190105481A patent/KR102280401B1/ko active IP Right Grant
- 2019-09-05 JP JP2019161673A patent/JP6908939B2/ja active Active
- 2019-09-10 CN CN201910852957.1A patent/CN111104838B/zh active Active
- 2019-10-22 EP EP19204541.7A patent/EP3644240B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN111104838B (zh) | 2023-08-11 |
JP6908939B2 (ja) | 2021-07-28 |
US10438082B1 (en) | 2019-10-08 |
KR20200047303A (ko) | 2020-05-07 |
CN111104838A (zh) | 2020-05-05 |
EP3644240B1 (en) | 2024-06-19 |
EP3644240A1 (en) | 2020-04-29 |
KR102280401B1 (ko) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020068013A (ja) | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} | |
KR102280395B1 (ko) | 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
US10410120B1 (en) | Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same | |
US10346693B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
JP6846062B2 (ja) | 近接障害物の下段ライン及び上段ラインを検出し、物体存在性を検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting objectness by detecting bottom line and top line of nearest obstacles and testing method, testing device using the same} | |
KR102279376B1 (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102313119B1 (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 요구되는 hd 맵 업데이트에 이용될 적어도 하나의 어댑티브 로스 가중치 맵을 이용한 어텐션 드리븐 이미지 세그먼테이션 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102279388B1 (ko) | 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10311578B1 (en) | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same | |
KR102309705B1 (ko) | Cnn 기반 차선 검출을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10650279B1 (en) | Learning method and learning device for heterogeneous sensor fusion by using merging network which learns non-maximum suppression | |
JP6979707B2 (ja) | リグレッションロス(Regression loss)を利用した学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE USING REGRESSION LOSS AND TESTING METHOD, TESTING DEVICE USING THE SAME} |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191028 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6908939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |