JP6869561B2 - ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 - Google Patents
ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 Download PDFInfo
- Publication number
- JP6869561B2 JP6869561B2 JP2019182000A JP2019182000A JP6869561B2 JP 6869561 B2 JP6869561 B2 JP 6869561B2 JP 2019182000 A JP2019182000 A JP 2019182000A JP 2019182000 A JP2019182000 A JP 2019182000A JP 6869561 B2 JP6869561 B2 JP 6869561B2
- Authority
- JP
- Japan
- Prior art keywords
- observation target
- target vehicle
- information
- test
- blind spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 279
- 238000000034 method Methods 0.000 title claims description 46
- 238000012544 monitoring process Methods 0.000 title claims description 39
- 238000012790 confirmation Methods 0.000 claims description 68
- 238000004364 calculation method Methods 0.000 claims description 55
- 238000000605 extraction Methods 0.000 claims description 46
- 238000013528 artificial neural network Methods 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 34
- 239000013598 vector Substances 0.000 claims description 27
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 13
- 210000005036 nerve Anatomy 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000012706 support-vector machine Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000003066 decision tree Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000010998 test method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/802—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
- B60R2300/8026—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Biodiversity & Conservation Biology (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
121 手がかり情報抽出レイヤ
122 ブラインドスポット確認用FCレイヤ
123 ロスレイヤ
Claims (22)
- 基準自動車の一つ以上のブラインドスポットモニタリングのためのCNN(Convolutional Neural Network)の学習方法において、
(a)前記基準自動車の検出器からの少なくとも一つの出力に対応されるトレーニングデータが入力されると、学習装置が、手がかり情報抽出レイヤをもって前記トレーニングデータに含まれている観察対象自動車に対するクラス情報及び位置情報を利用して所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上の手がかり情報を出力させる段階;
(b)前記学習装置が、ブラインドスポット確認用FC(Fully Connected)レイヤをもって前記観察対象自動車に対する前記手がかり情報を利用して一つ以上の神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車のブラインドスポットの中の一つに位置するか否かに対する判断結果を出力させる段階;及び
(c)前記学習装置が、ロスレイヤをもって前記判断結果とこれに対応される原本正解(Ground Truth)を参考に一つ以上のロス値を生成させることで、前記ロス値を利用したバックプロパゲーションによって前記ブラインドスポット確認用FCレイヤの一つ以上のパラメータを学習する段階;
を含むことを特徴とする学習方法。 - 前記ブラインドスポット確認用FCレイヤは、前記観察対象自動車に対する前記手がかり情報を入力とする多重パーセプトロンによって前記観察対象自動車が前記ブラインドスポットの中の一つに位置するか否かに対する結果値を出力する神経網(neural network)を含むことを特徴とする請求項1に記載の学習方法。
- 前記観察対象自動車に対する前記手がかり情報は、(i)前記観察対象自動車に対する前記クラス情報、(ii)前記観察対象自動車に対する前記位置情報、(iii)ROI(Region Of Interest)のサイズに対応する前記観察対象自動車のサイズ情報、(iv)前記観察対象自動車のアスペクト比(aspect ratio)情報、及び(v)前記観察対象自動車の中心点と前記ブラインドスポットの外側の面との間の距離情報のうち、少なくとも一部を含むことを特徴とする請求項1に記載の学習方法。
- 前記手がかり情報抽出レイヤは、(i)左側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離及び(ii)右側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離のうち、小さい値を前記観察対象自動車の前記中心点と前記ブラインドスポットの前記外側の面の間の前記距離情報と判断し、前記観察対象自動車の前記中心点が前記ブラインドスポットの前記外側の面の外側に位置するか、あるいは内側に位置するかを区分するために、前記距離情報に追加で相対的位置情報をさらに出力することを特徴とする請求項3に記載の学習方法。
- 基準自動車の一つ以上のブラインドスポットモニタリングのためのCNNのテスティング方法において、
(a)学習装置によって、(i)手がかり情報抽出レイヤをもって前記基準自動車の検出器から少なくとも一つの出力に対応されるトレーニングデータに含まれている観察対象自動車に対する学習用クラス情報及び学習用位置情報を利用して所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上の学習用手がかり情報を出力させ;(ii)ブラインドスポット確認用FCレイヤをもって前記観察対象自動車に対する前記学習用手がかり情報を利用して一つ以上の神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車のブラインドスポットの中の一つに位置するか否かに対する学習用判断結果を出力させ、(iii)ロスレイヤをもって前記学習用判断結果とこれに対応される原本正解を参考に一つ以上のロス値を生成させることで、前記ロス値を利用したバックプロパゲーションによって前記ブラインドスポット確認用FCレイヤの一つ以上のパラメータを学習した状態で、前記基準自動車で撮影されたテストイメージ内に位置する前記観察対象自動車を検出する前記検出器から前記観察対象自動車に対するテスト用クラス情報及びテスト用位置情報が獲得されると、テスティング装置が、前記手がかり情報抽出レイヤをもって前記観察対象自動車に対するテスト用クラス情報及びテスト用位置情報を利用して所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上のテスト用手がかり情報を出力させる段階;及び
(b)前記テスティング装置が、ブラインドスポット確認用FCレイヤをもって前記観察対象自動車に対する前記テスト用手がかり情報またはこれを加工した値を利用して前記神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車の前記ブラインドスポットの中の一つに位置するか否かに対するテスト用判断結果を出力させる段階;
を含むことを特徴とするテスティング方法。 - 前記検出器は、
前記テストイメージからテスト用特徴マップを生成する一つ以上のコンボリューションレイヤ;
前記テスト用特徴マップから前記観察対象自動車に対するテスト用ROIを獲得するRPN(Region Proposal Network);
前記テスト用特徴マップ内で、前記テスト用ROIに対応される領域をプーリングし、テスト用特徴ベクトルを生成するプーリングレイヤ;
前記テスト用特徴ベクトルに一つ以上のFC(fully connected)演算を加え、一つ以上のFC出力値を生成する少なくとも一つの自動車検出用FCレイヤ;
前記FC出力値を参照し、前記観察対象自動車に対する前記テスト用クラス情報を出力する分類レイヤ;及び
前記FC出力値を参照し、前記観察対象自動車に対する前記テスト用位置情報を出力するリグレッションレイヤ;
を含むR−CNN(Region−based Convolutional Neural Network)基盤の自動車検出器であることを特徴とする請求項5に記載のテスティング方法。 - 前記テスティング装置は、前記CNNをもって前記手がかり情報抽出レイヤによって生成される前記観察対象自動車に対するテスト用手がかり情報と前記検出器の前記プーリングレイヤによって生成された前記テスト用特徴ベクトルを用いてコンカチネート(concatenate)した値を前記ブラインドスポット確認用FCレイヤの入力として受けることを特徴とする請求項6に記載のテスティング方法。
- 前記ブラインドスポット確認用FCレイヤは、前記観察対象自動車に対する前記テスト用手がかり情報またはこれを加工した値を入力とする多重パーセプトロンによって前記観察対象自動車が前記ブラインドスポットの中の一つに位置するか否かに対する結果値を出力する神経網を含むことを特徴とする請求項5に記載のテスティング方法。
- 前記観察対象自動車に対する前記テスト用手がかり情報は、(i)前記観察対象自動車に対する前記テスト用クラス情報、(ii)前記観察対象自動車に対する前記テスト用位置情報、(iii)ROIのサイズに対応する前記観察対象自動車のテスト用サイズ情報、(iv)前記観察対象自動車のアスペクト比(aspect ratio)情報、及び(v)前記観察対象自動車の中心点と前記ブラインドスポットの外側の面との間の距離情報のうち、少なくとも一部を含むことを特徴とする請求項5に記載のテスティング方法。
- 前記手がかり情報抽出レイヤは、(i)左側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離及び(ii)右側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離のうち、小さい値を前記観察対象自動車の前記中心点と前記ブラインドスポットの前記外側の面の間のテスト用距離情報と判断し、前記観察対象自動車の前記中心点が前記ブラインドスポットの前記外側の面の外側に位置するか、あるいは内側に位置するかを区分するために、前記テスト用距離情報に追加でテスト用相対的位置情報をさらに出力することを特徴とする請求項9に記載のテスティング方法。
- 前記テスティング装置の前記基準自動車は、前記学習装置の前記基準自動車と同一でないことを特徴とする請求項5に記載のテスティング方法。
- 基準自動車の一つ以上のブラインドスポットモニタリングのためのCNNの学習装置において、
前記基準自動車の検出器から少なくとも一つの出力信号に対応されるトレーニングデータを受信する通信部;及び
(I)手がかり情報抽出レイヤをもって前記トレーニングデータに含まれている観察対象自動車に対するクラス情報及び位置情報を利用して所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上の手がかり情報を出力させるプロセス、(II)ブラインドスポット確認用FCレイヤをもって前記観察対象自動車に対する前記手がかり情報を利用して一つ以上の神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車のブラインドスポットの中の一つに位置するか否かに対する判断結果を出力させるプロセス、及び(III)ロスレイヤをもって前記判断結果とこれに対応される原本正解を参考に一つ以上のロス値を生成させることで、前記ロス値を利用したバックプロパゲーションによって前記ブラインドスポット確認用FCレイヤの一つ以上のパラメータを学習するプロセスを遂行するプロセッサ;を含むことを特徴とする学習装置。 - 前記ブラインドスポット確認用FCレイヤは、前記観察対象自動車に対する前記手がかり情報を入力とする多重パーセプトロンによって前記観察対象自動車が前記ブラインドスポットの中の一つに位置するか否かに対する結果値を出力する神経網を含むことを特徴とする請求項12に記載の学習装置。
- 前記観察対象自動車に対する前記手がかり情報は、(i)前記観察対象自動車に対する前記クラス情報、(ii)前記観察対象自動車に対する前記位置情報、(iii)ROI(Region Of Interest)のサイズに対応する前記観察対象自動車のサイズ情報、(iv)前記観察対象自動車のアスペクト比(aspect ratio)情報、及び(v)前記観察対象自動車の中心点と前記ブラインドスポットの外側の面との間の距離情報のうち、少なくとも一部を含むことを特徴とする請求項12に記載の学習装置。
- 前記手がかり情報抽出レイヤは、(i)左側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離及び(ii)右側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離のうち、小さい値を前記観察対象自動車の前記中心点と前記ブラインドスポットの前記外側の面の間の前記距離情報と判断し、前記観察対象自動車の前記中心点が前記ブラインドスポットの前記外側の面の外側に位置するか、あるいは内側に位置するかを区分するために、前記距離情報に追加で相対的位置情報をさらに出力することを特徴とする請求項14に記載の学習装置。
- 基準自動車の一つ以上のブラインドスポットモニタリングのためのCNNのテスティング装置において、
学習装置によって、(i)手がかり情報抽出レイヤをもって前記基準自動車の検出器から少なくとも一つの出力に対応されるトレーニングデータに含まれている観察対象自動車に対する学習用クラス情報及び学習用位置情報を利用して所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上の学習用手がかり情報を出力させ、(ii)ブラインドスポット確認用FCレイヤをもって前記観察対象自動車に対する前記学習用手がかり情報を利用して一つ以上の神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車のブラインドスポットに位置するか否かに対する学習用判断結果を出力させ、(iii)ロスレイヤをもって前記学習用判断結果とこれに対応される原本正解を参考に一つ以上のロス値を生成させることで、前記ロス値を利用したバックプロパゲーションによって前記ブラインドスポット確認用FCレイヤの一つ以上のパラメータを学習した状態で、前記基準自動車で撮影されたテストイメージ内に位置する前記観察対象自動車を検出する前記検出器から前記観察対象自動車に対するテスト用クラス情報及びテスト用位置情報を受信する通信部;及び
(I)前記手がかり情報抽出レイヤをもって前記観察対象自動車に対する前記テスト用クラス情報及び前記テスト用位置情報を利用して前記所定の演算を遂行させることにより、前記観察対象自動車に対する一つ以上のテスト用手がかり情報を出力させるプロセス及び(II)前記ブラインドスポット確認用FCレイヤをもって前記観察対象自動車に対する前記テスト用手がかり情報をまたはこれを加工した値を利用して前記神経網演算を遂行するようにすることで、前記観察対象自動車が、前記基準自動車の前記ブラインドスポットの中の一つに位置するか否かに対するテスト用判断結果を出力させるプロセスを遂行するプロセッサ;
を含むことを特徴とするテスティング装置。 - 前記検出器は、
前記テストイメージからテスト用特徴マップを生成する一つ以上のコンボリューションレイヤ;
前記テスト用特徴マップから前記観察対象自動車に対するテスト用ROIを獲得するRPN;
前記テスト用特徴マップ内で、前記テスト用ROIに対応される領域をプーリングし、テスト用特徴ベクトルを生成するプーリングレイヤ;
前記テスト用特徴ベクトルに一つ以上のFC(fully connected)演算を加え、一つ以上のFC出力値を生成する少なくとも一つの自動車検出用FCレイヤ;
前記FC出力値を参照し、前記観察対象自動車に対する前記テスト用クラス情報を出力する分類レイヤ;及び
前記FC出力値を参照し、前記観察対象自動車に対する前記テスト用位置情報を出力するリグレッションレイヤ;
を含むR−CNN基盤の自動車検出器であることを特徴とする請求項16に記載のテスティング装置。 - 前記プロセッサは、前記CNNをもって前記手がかり情報抽出レイヤによって生成される前記観察対象自動車に対する前記テスト用手がかり情報と前記検出器の前記プーリングレイヤによって生成された前記テスト用特徴ベクトルを用いてコンカチネートした値を前記ブラインドスポット確認用FCレイヤの入力として受けることを特徴とする請求項17に記載のテスティング装置。
- 前記ブラインドスポット確認用FCレイヤは、前記観察対象自動車に対する前記テスト用手がかり情報またはこれを加工した値を入力とする多重パーセプトロンによって前記観察対象自動車が前記ブラインドスポットの中の一つに位置するか否かに対する結果値を出力する神経網を含むことを特徴とする請求項16に記載のテスティング装置。
- 前記観察対象自動車に対する前記テスト用手がかり情報は、(i)前記観察対象自動車に対する前記テスト用クラス情報、(ii)前記観察対象自動車に対する前記テスト用位置情報、(iii)ROIのサイズに対応する前記観察対象自動車のテスト用サイズ情報、(iv)前記観察対象自動車のアスペクト比(aspect ratio)情報、及び(v)前記観察対象自動車の中心点と前記ブラインドスポットの外側の面との間の距離情報のうち、少なくとも一部を含むことを特徴とする請求項16に記載のテスティング装置。
- 前記手がかり情報抽出レイヤは、(i)左側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離及び(ii)右側ブラインドスポットの外側の境界から前記観察対象自動車の前記中心点の間の距離のうち、小さい値を前記観察対象自動車の前記中心点と前記ブラインドスポットの前記外側の面の間のテスト用距離情報と判断し、前記観察対象自動車の前記中心点が前記ブラインドスポットの前記外側の面の外側に位置するか、あるいは内側に位置するかを区分するために、前記テスト用距離情報に追加でテスト用相対的位置情報をさらに出力することを特徴とする請求項20に記載のテスティング装置。
- 前記テスティング装置の前記基準自動車は、前記学習装置の前記基準自動車と同一でないことを特徴とする請求項16に記載のテスティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/153,972 | 2018-10-08 | ||
US16/153,972 US10984262B2 (en) | 2018-10-08 | 2018-10-08 | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061139A JP2020061139A (ja) | 2020-04-16 |
JP6869561B2 true JP6869561B2 (ja) | 2021-05-12 |
Family
ID=67874278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182000A Active JP6869561B2 (ja) | 2018-10-08 | 2019-10-02 | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10984262B2 (ja) |
EP (1) | EP3637309A1 (ja) |
JP (1) | JP6869561B2 (ja) |
KR (1) | KR102349906B1 (ja) |
CN (1) | CN111008552B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11462021B2 (en) * | 2021-01-13 | 2022-10-04 | GM Global Technology Operations LLC | Obstacle detection and notification for motorcycles |
CN113239912B (zh) * | 2021-07-13 | 2021-09-17 | 天津所托瑞安汽车科技有限公司 | Bsd图像有效区域的确定方法、设备和存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6413949B1 (en) * | 1995-06-07 | 2002-07-02 | D-Pharm, Ltd. | Prodrugs with enhanced penetration into cells |
ES2177469B1 (es) | 2001-05-16 | 2003-12-16 | Fico Mirrors Sa | Dispositivo de deteccion de presencia de objetos en un angulo muerto de un vehiculo automovil. |
US6859148B2 (en) | 2002-10-30 | 2005-02-22 | Ford Global Technologies, Llc | Blind spot warning system for an automotive vehicle |
TWI478832B (zh) * | 2010-03-31 | 2015-04-01 | Hon Hai Prec Ind Co Ltd | 行車視覺盲區偵測系統及方法 |
JP5620147B2 (ja) * | 2010-05-24 | 2014-11-05 | 株式会社豊田中央研究所 | 可動物予測装置及びプログラム |
US9424468B2 (en) * | 2010-09-08 | 2016-08-23 | Toyota Jidosha Kabushiki Kaisha | Moving object prediction device, hypothetical movable object prediction device, program, moving object prediction method and hypothetical movable object prediction method |
IL231862A (en) * | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
US9947226B2 (en) * | 2016-04-12 | 2018-04-17 | Denso International America, Inc. | Methods and systems for blind spot monitoring with dynamic detection range |
US10115025B2 (en) * | 2016-06-13 | 2018-10-30 | Ford Global Technologies, Llc | Detecting visibility of a vehicle to driver of other vehicles |
CN106251701B (zh) * | 2016-09-14 | 2018-11-06 | 郑州轻工业学院 | 基于旋转变焦多摄像头的车辆后视监测报警系统及方法 |
JP2018081357A (ja) * | 2016-11-14 | 2018-05-24 | トヨタ自動車株式会社 | 運転支援装置 |
US20190155291A1 (en) * | 2016-12-23 | 2019-05-23 | Faraday&Future Inc. | Methods and systems for automated driving system simulation, validation, and implementation |
EP3679552A1 (en) * | 2017-09-06 | 2020-07-15 | Swiss Reinsurance Company Ltd. | Electronic logging and track identification system for mobile telematics devices, and corresponding method thereof |
US9934440B1 (en) | 2017-10-04 | 2018-04-03 | StradVision, Inc. | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US9947228B1 (en) | 2017-10-05 | 2018-04-17 | StradVision, Inc. | Method for monitoring blind spot of vehicle and blind spot monitor using the same |
US10007865B1 (en) | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN110248861B (zh) * | 2018-01-07 | 2023-05-30 | 辉达公司 | 在车辆操纵过程中使用机器学习模型来引导车辆 |
-
2018
- 2018-10-08 US US16/153,972 patent/US10984262B2/en active Active
-
2019
- 2019-08-27 KR KR1020190105495A patent/KR102349906B1/ko active IP Right Grant
- 2019-09-05 EP EP19195511.1A patent/EP3637309A1/en active Pending
- 2019-10-02 JP JP2019182000A patent/JP6869561B2/ja active Active
- 2019-10-08 CN CN201910949100.1A patent/CN111008552B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020061139A (ja) | 2020-04-16 |
CN111008552B (zh) | 2023-09-05 |
KR102349906B1 (ko) | 2022-01-12 |
KR20200040187A (ko) | 2020-04-17 |
CN111008552A (zh) | 2020-04-14 |
US10984262B2 (en) | 2021-04-20 |
US20200108773A1 (en) | 2020-04-09 |
EP3637309A1 (en) | 2020-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6814334B2 (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
Khammari et al. | Vehicle detection combining gradient analysis and AdaBoost classification | |
JP6872260B2 (ja) | 自動車の車線変更に対する危険を警報する方法及びこれを利用した警報装置 | |
CN107368890A (zh) | 一种以视觉为中心的基于深度学习的路况分析方法及系统 | |
KR20190039648A (ko) | 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터 | |
JP6856854B2 (ja) | 多数の車両によるセンサーフュージョン、v2x通信可能なアプリケーションを利用した協業走行のために周囲に位置するカメラそれぞれに対応するそれぞれの物体検出器によって検出される物体検出情報を統合する方法及び装置 | |
US10402978B1 (en) | Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same | |
JP6979228B2 (ja) | V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same} | |
CN103358993A (zh) | 用于识别车辆停车位线标记的系统和方法 | |
EP1606769A2 (en) | System and method for vehicle detection and tracking | |
US10635917B1 (en) | Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition | |
JP6869561B2 (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
KR102082254B1 (ko) | 차량 인식 시스템 | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
CN106570451A (zh) | 在镜像或反射表面内的自主车辆的自识别 | |
CN112883790A (zh) | 一种基于单目摄像头的3d物体检测方法 | |
Fries et al. | Real-time unsupervised feature model generation for a vehicle following system | |
Memon et al. | Self-driving car using lidar sensing and image processing | |
Liu | Development of a vision-based object detection and recognition system for intelligent vehicle | |
KR102039814B1 (ko) | 측후방 차량 검출 방법 및 그 장치 | |
Bharamgoudar | Detection of Free Space/Obstacles in Front of the Ego Car Using Stereo Camera in Urban Scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191002 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201021 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6869561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |