JP6910081B2 - 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 - Google Patents
協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 Download PDFInfo
- Publication number
- JP6910081B2 JP6910081B2 JP2020009978A JP2020009978A JP6910081B2 JP 6910081 B2 JP6910081 B2 JP 6910081B2 JP 2020009978 A JP2020009978 A JP 2020009978A JP 2020009978 A JP2020009978 A JP 2020009978A JP 6910081 B2 JP6910081 B2 JP 6910081B2
- Authority
- JP
- Japan
- Prior art keywords
- main
- sub
- learning
- detection information
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 145
- 230000010354 integration Effects 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims description 191
- 238000011176 pooling Methods 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000013135 deep learning Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Description
110:メモリ
120:プロセッサ
200:学習装置
210:メモリ
220:プロセッサ
Claims (12)
- 協調走行を遂行する少なくとも二つの車両から取得された各走行イメージを統合する方法において、
(a)前記少なくとも一つの車両のうち少なくとも一つのメイン車両に設置されたメイン走行イメージ統合装置が、(i)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器に入力して、前記メイン物体検出器をもって、(i−1)メインコンボリューションレイヤによって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップを生成するようにし、(i−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(i−3)メインプーリングレイヤによって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップを生成するようにし、(i−4)メインFCレイヤによって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセスを遂行する段階;
(b)前記メイン走行イメージ統合装置が、前記メインプーリング済み特徴マップをメインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセスを遂行する段階;及び
(c)前記メイン走行イメージ統合装置が、前記協調走行中の少なくとも一つのサブ(sub)車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成する段階;
を含み、
前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、
前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器をもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする方法。 - 前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、
少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトルに対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤをもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、
前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニングによって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数であり、前記nは、1以上の整数であることを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、
前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、
前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックスのそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする請求項2に記載の方法。 - (i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする請求項3に記載の方法。
- 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
前記メイン走行イメージ統合装置は、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする請求項1に記載の方法。 - 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
前記第1物体検出情報のうちの第1重畳物体検出情報と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記メイン走行イメージ統合装置は、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする請求項5に記載の方法。 - 協調走行を遂行する少なくとも二つの車両のうち少なくとも一つのメイン車両に設置された、前記車両から取得された各走行イメージを統合するメイン走行イメージ統合装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記メイン車両に設置された少なくとも一つのメインカメラから取得される少なくとも一つのメイン走行イメージをメイン物体検出器に入力して、前記メイン物体検出器をもって、(I−1)メインコンボリューションレイヤによって前記メイン走行イメージ対してコンボリューション演算を少なくとも一度適用して少なくとも一つのメイン特徴マップを生成するようにし、(I−2)メインRPN(Region Proposal Network)によって前記メイン特徴マップ上で少なくとも一つのメイン物体が位置すると予想される、少なくとも一つの領域に対応する少なくとも一つのメインROI(Region Of Interest)を生成するようにし、(I−3)メインプーリングレイヤによって前記メイン特徴マップ上で前記メインROIに対応する少なくとも一つの領域に対して、プーリング演算を少なくとも一度適用して、少なくとも一つのメインプーリング済み特徴マップを生成するようにし、(I−4)メインFCレイヤによって前記メインプーリング済み特徴マップに対してFC演算を少なくとも一度適用して、前記メイン走行イメージ上に位置する前記メイン物体に対するメイン物体検出情報を生成するようにするプロセス、(II)前記メインプーリング済み特徴マップをメインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、前記メインプーリング済み特徴マップそれぞれに対応する前記メインROIそれぞれの少なくとも一つのメインコンフィデンスそれぞれを生成するようにするプロセス、及び(III)前記協調走行中の少なくとも一つのサブ車両それぞれからサブ物体検出情報と少なくとも一つのサブコンフィデンスを取得するプロセス、及び前記メインコンフィデンス及び前記サブコンフィデンスを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するプロセスを遂行することにより、前記メイン走行イメージの少なくとも一つの物体検出結果を生成するプロセスを遂行するようにするか、他の装置をもって遂行するようにするために前記インストラクションを実行するように構成された少なくとも一つのプロセッサを含み、
前記サブ物体検出情報と前記サブコンフィデンスとは、前記サブ車両それぞれに設置された少なくとも一つのサブ走行イメージ統合装置それぞれにより生成され、前記サブ走行イメージ統合装置それぞれは、(i)サブ走行イメージそれぞれを、対応するサブ物体検出器それぞれに入力して、前記サブ物体検出器それぞれをもって、(i−1)対応するサブコンボリューションレイヤそれぞれによって前記サブ走行イメージそれぞれに対して前記コンボリューション演算を少なくとも一度適用してサブ特徴マップそれぞれを生成するようにし、(i−2)対応するサブRPNそれぞれによって前記それぞれのサブ特徴マップ上に少なくとも一つのサブ物体が位置すると予想される少なくとも一つの領域に対応する少なくとも一つのサブROIを生成するようにし、(i−3)対応するサブプーリングレイヤそれぞれによって前記それぞれのサブ特徴マップ上で、前記サブROIそれぞれに対応する少なくとも一つの領域に対して、前記プーリング演算を少なくとも一度適用して少なくとも一つのサブプーリング済み特徴マップそれぞれを生成するようにし、(i−4)対応するサブFCレイヤそれぞれによって前記それぞれのサブプーリング済み特徴マップに対して前記FC演算を少なくとも一度適用して、前記それぞれのサブ走行イメージ上に位置する前記サブ物体に対する前記サブ物体検出情報を生成するようにし、(i−5)前記サブプーリング済み特徴マップそれぞれをサブコンフィデンスネットワークそれぞれに入力して、前記サブコンフィデンスネットワークそれぞれをもって、前記サブプーリング済み特徴マップそれぞれに対応する前記サブROIの前記サブコンフィデンスを生成するようにすることを特徴とする装置。 - 前記メイン物体検出器と前記メインコンフィデンスネットワークとは、学習装置により学習された状態であり、
少なくとも一つの学習用走行イメージを含むトレーニングデータが取得されると、前記学習装置が、(i)前記トレーニングデータから、(i−1)学習用第1_1走行イメージないし学習用第1_m走行イメージを含む第1トレーニングデータと(i−2)学習用第2_1走行イメージないし学習用第2_n走行イメージを含む第2トレーニングデータとをサンプリングするプロセス、(ii)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージの一つである学習用第1_j走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第1_j走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第1特徴マップを生成するようにするプロセス、(iii)前記第1特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第1特徴マップ上に位置する少なくとも一つの学習用物体に対応する少なくとも一つの第1ROI(Region Of Interest)を生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第1特徴マップ上で、前記第1ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第1プーリング済み特徴マップを生成するようにするプロセス、(v)前記メインFCレイヤをもって、前記第1プーリング済み特徴マップまたはこれに対応する少なくとも一つの第1特徴ベクトルに対して前記FC演算を少なくとも一度適用して、前記学習用第1_j走行イメージ上に位置する前記学習用物体に対応する第1物体検出情報を生成するようにするプロセス、(vi)第1ロスレイヤをもって、前記第1物体検出情報と前記学習用第1_j走行イメージの少なくとも一つの物体GT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにするプロセス、及び(vii)前記第1ロスを利用したバックプロパゲーションによって、前記第1ロスを最小化するように前記メインFCレイヤ及び前記メインコンボリューションレイヤのうちの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対して遂行することにより、前記メイン物体検出器を学習し、
前記学習装置が、(i)前記学習用第1_1走行イメージないし前記学習用第1_m走行イメージそれぞれに対応する前記第1物体検出情報と前記物体GTとを参照して前記第1ROIそれぞれの少なくとも一つの第1コンフィデンスそれぞれを取得するプロセス、(ii)前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージの一つである学習用第2_k走行イメージを前記メインコンボリューションレイヤに入力して、前記メインコンボリューションレイヤをもって、前記学習用第2_k走行イメージに対して前記コンボリューション演算を少なくとも一度適用して少なくとも一つの第2特徴マップを生成するようにするプロセス、(iii)前記第2特徴マップを前記メインRPNに入力して、前記メインRPNをもって、前記第2特徴マップ上に位置する前記学習用物体に対応する少なくとも一つの第2ROIを生成するようにするプロセス、(iv)前記メインプーリングレイヤをもって、前記第2特徴マップ上で、前記第2ROIに対応する少なくとも一つの領域に対して前記プーリング演算を少なくとも一度適用して少なくとも一つの第2プーリング済み特徴マップを生成するようにするプロセス、(v)前記第2プーリング済み特徴マップを前記メインコンフィデンスネットワークに入力して、前記メインコンフィデンスネットワークをもって、ディープラーニングによって前記第2プーリング済み特徴マップに対応する少なくとも一つの第2コンフィデンスを生成するようにするプロセス、(vi)第2ロスレイヤをもって、前記第2コンフィデンスと前記第1コンフィデンスとを参照して少なくとも一つの第2ロスを算出するようにするプロセス、及び(vii)前記第2ロスを利用したバックプロパゲーションによって、前記第2ロスを最小化するように前記メインコンフィデンスネットワークの少なくとも一つのパラメータをアップデートするプロセスを、前記学習用第2_1走行イメージないし前記学習用第2_n走行イメージに対して遂行することにより、前記メインコンフィデンスネットワークを学習した状態であり、前記mは、1以上の整数であり、前記nは、1以上の整数であることを特徴とする請求項7に記載の装置。 - 前記学習装置は、前記第1物体検出情報とこれに対応する物体GTとを参照して前記第1ROIそれぞれの前記第1コンフィデンスを取得し、
前記第1ROIそれぞれに前記学習用物体それぞれがない場合、前記第1コンフィデンスそれぞれは「0」であり、前記第1ROIそれぞれに前記学習用物体それぞれがある場合、前記第1コンフィデンスそれぞれは「1−ボックス_エラー×クラス_エラー(1−Box_Error×Class_Error)」であり、
前記それぞれのボックス_エラーは、前記第1物体検出情報に含まれた各バウンディングボックスのそれぞれのエラーであり、前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれたクラス情報のそれぞれのエラーであることを特徴とする請求項8に記載の装置。 - (i)前記それぞれのボックス_エラーは、(i−1)前記それぞれの学習用物体のそれぞれのサイズの(i−2)前記バウンディングボックスそれぞれの中心ポイントのエラーの合計に対する比率であり、(ii)前記それぞれのクラス_エラーは、前記第1物体検出情報に含まれた、前記学習用物体それぞれを分類するのに利用されるそれぞれのクラスに対するそれぞれの予測値のクラスエラーのそれぞれの合計であることを特徴とする請求項9に記載の装置。
- 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
前記プロセッサは、(i)前記メインコンフィデンス及び前記サブコンフィデンスのうちの特定物体検出情報それぞれに対応する特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれたクラスそれぞれに対する推定値それぞれの加重和を算出するプロセス、及び加重和されたクラスのうちの最も大きな値を有する特定クラスを前記特定物体に対応する最適クラス情報として取得するプロセス、と(ii)前記特定物体検出情報それぞれに対応する前記特定コンフィデンスそれぞれを重み付け値として利用して前記特定物体検出情報それぞれに含まれた特定リグレッション情報それぞれの加重和を算出するプロセス、及び加重和されたリグレッション情報を前記特定物体に対応する最適リグレッション情報として取得するプロセス、とを遂行することを特徴とする請求項7に記載の装置。 - 前記メインコンフィデンスと前記サブコンフィデンスとを重み付け値として利用して、前記メイン物体検出情報と前記サブ物体検出情報とを統合するにおいて、
前記第1物体検出情報のうちの第1重畳物体検出情報と、前記第2物体検出情報のうちの第2重畳物体検出情報とが互いに重なって存在すると判断される場合、前記プロセッサは、(i)前記第1重畳物体検出情報に対応する第1バウンディングボックスと、前記第2重畳物体検出情報に対応する第2バウンディングボックスとのIOU(Intersection Over Union)が予め設定された閾値以上であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とが前記特定物体に対応するものと判断するプロセス、及び(ii)前記IOUが前記予め設定された閾値未満であれば、前記第1重畳物体検出情報と前記第2重畳物体検出情報とがそれぞれ異なる物体に対応するものと判断するプロセスを遂行することを特徴とする請求項11に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799514P | 2019-01-31 | 2019-01-31 | |
US62/799,514 | 2019-01-31 | ||
US16/739,220 | 2020-01-10 | ||
US16/739,220 US10796206B2 (en) | 2019-01-31 | 2020-01-10 | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126637A JP2020126637A (ja) | 2020-08-20 |
JP6910081B2 true JP6910081B2 (ja) | 2021-07-28 |
Family
ID=69191878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009978A Active JP6910081B2 (ja) | 2019-01-31 | 2020-01-24 | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10796206B2 (ja) |
EP (1) | EP3690744B1 (ja) |
JP (1) | JP6910081B2 (ja) |
KR (1) | KR102301631B1 (ja) |
CN (1) | CN111507160B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101977174B1 (ko) | 2017-09-13 | 2019-05-10 | 이재준 | 영상 분석 방법, 장치 및 컴퓨터 프로그램 |
IL270540A (en) * | 2018-12-26 | 2020-06-30 | Yandex Taxi Llc | Method and system for training a machine learning algorithm to recognize objects from a distance |
US11043003B2 (en) * | 2019-11-18 | 2021-06-22 | Waymo Llc | Interacted object detection neural network |
US11634144B2 (en) * | 2020-09-24 | 2023-04-25 | Zhejiang University | Sensing method and sensing device for human driven vehicles under partial VANET (vehicular ad hoc network) environment |
CN113282721B (zh) * | 2021-04-28 | 2023-07-21 | 南京大学 | 基于网络结构搜索的视觉问答方法 |
KR102637343B1 (ko) * | 2021-05-26 | 2024-02-16 | 삼성전자주식회사 | 오브젝트 추적 방법 및 장치 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144185A (ja) * | 1997-09-03 | 1999-05-28 | Honda Motor Co Ltd | 自動運転制御誘導システム |
JP4093026B2 (ja) * | 2002-11-18 | 2008-05-28 | 日本電気株式会社 | 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム |
JP2006090957A (ja) * | 2004-09-27 | 2006-04-06 | Nissan Motor Co Ltd | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 |
JP4752836B2 (ja) * | 2007-12-25 | 2011-08-17 | 日本電気株式会社 | 道路環境情報通知装置及び道路環境情報通知プログラム |
US8831869B2 (en) * | 2009-03-31 | 2014-09-09 | GM Global Technology Operations LLC | Using V2X-based in-network message generation, aggregation, distribution and processing protocols to enable road hazard condition warning applications |
US11465640B2 (en) * | 2010-06-07 | 2022-10-11 | Affectiva, Inc. | Directed control transfer for autonomous vehicles |
US8995956B2 (en) * | 2011-09-23 | 2015-03-31 | GM Global Technology Operations LLC | System and method for vehicle based cellular offload |
US9002060B2 (en) * | 2012-06-28 | 2015-04-07 | International Business Machines Corporation | Object retrieval in video data using complementary detectors |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US9672734B1 (en) * | 2016-04-08 | 2017-06-06 | Sivalogeswaran Ratnasingam | Traffic aware lane determination for human driver and autonomous vehicle driving system |
WO2018005441A2 (en) * | 2016-06-27 | 2018-01-04 | Mobileye Vision Technologies Ltd. | Controlling host vehicle based on detected parked vehicle characteristics |
CN109906165A (zh) * | 2016-08-10 | 2019-06-18 | 兹沃公司 | 使用推断的注意力模型经由收集和存储的元数据提供信息的方法和设备 |
WO2018117631A1 (en) * | 2016-12-21 | 2018-06-28 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of operating the same |
KR20180097944A (ko) * | 2017-02-24 | 2018-09-03 | 재단법인대구경북과학기술원 | 공유 특징맵을 이용한 다중 객체 추적 장치 및 그 방법 |
US11308391B2 (en) * | 2017-03-06 | 2022-04-19 | Baidu Usa Llc | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
US10147193B2 (en) * | 2017-03-10 | 2018-12-04 | TuSimple | System and method for semantic segmentation using hybrid dilated convolution (HDC) |
US10679075B2 (en) * | 2017-08-31 | 2020-06-09 | Nec Corporation | Dense correspondence estimation with multi-level metric learning and hierarchical matching |
US9934440B1 (en) * | 2017-10-04 | 2018-04-03 | StradVision, Inc. | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US9946960B1 (en) | 2017-10-13 | 2018-04-17 | StradVision, Inc. | Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same |
US10866588B2 (en) * | 2017-10-16 | 2020-12-15 | Toyota Research Institute, Inc. | System and method for leveraging end-to-end driving models for improving driving task modules |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
US10445597B2 (en) * | 2017-10-17 | 2019-10-15 | Toyota Research Institute, Inc. | Systems and methods for identification of objects using audio and sensor data |
US10528824B2 (en) * | 2017-12-11 | 2020-01-07 | GM Global Technology Operations LLC | Artificial neural network for lane feature classification and localization |
DE102018200982A1 (de) * | 2018-01-23 | 2019-08-08 | Volkswagen Aktiengesellschaft | Verfahren zur Verarbeitung von Sensordaten in einer Anzahl von Steuergeräten, entsprechend ausgelegte Vorverarbeitungseinheit sowie Fahrzeug |
US11086317B2 (en) * | 2018-03-30 | 2021-08-10 | Intel Corporation | Emotional adaptive driving policies for automated driving vehicles |
CN108491827B (zh) * | 2018-04-13 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 一种车辆检测方法、装置及存储介质 |
US11138745B2 (en) * | 2018-04-30 | 2021-10-05 | Uatc, Llc | Object association for autonomous vehicles |
US10739455B2 (en) * | 2018-05-24 | 2020-08-11 | GM Global Technology Operations LLC | Method and apparatus for acquiring depth information using cameras from different vehicles |
US11966838B2 (en) * | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
US11024180B2 (en) * | 2018-12-27 | 2021-06-01 | Intel Corporation | Methods and apparatus to validate data communicated by a vehicle |
-
2020
- 2020-01-10 US US16/739,220 patent/US10796206B2/en active Active
- 2020-01-20 KR KR1020200007642A patent/KR102301631B1/ko active IP Right Grant
- 2020-01-21 CN CN202010070470.0A patent/CN111507160B/zh active Active
- 2020-01-23 EP EP20153291.8A patent/EP3690744B1/en active Active
- 2020-01-24 JP JP2020009978A patent/JP6910081B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020126637A (ja) | 2020-08-20 |
CN111507160B (zh) | 2023-11-14 |
US20200250499A1 (en) | 2020-08-06 |
EP3690744B1 (en) | 2024-07-03 |
US10796206B2 (en) | 2020-10-06 |
EP3690744C0 (en) | 2024-07-03 |
CN111507160A (zh) | 2020-08-07 |
EP3690744A1 (en) | 2020-08-05 |
KR20200095387A (ko) | 2020-08-10 |
KR102301631B1 (ko) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
JP6820030B2 (ja) | 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same} | |
JP6849898B2 (ja) | 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 | |
KR102309711B1 (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US10919543B2 (en) | Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
CN110837778A (zh) | 一种基于骨架关节点序列的交警指挥手势识别方法 | |
US11875551B2 (en) | Collecting and processing data from vehicles | |
KR102539942B1 (ko) | 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP7092383B2 (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
JP6892157B2 (ja) | V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
KR20220019204A (ko) | 자율주행 차량에서의 주행 경로 생성 및 제어 시스템 및 방법 | |
Aditya et al. | Collision detection: An improved deep learning approach using SENet and ResNext | |
Bourja et al. | Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3 | |
Singh et al. | Improved YOLOv5l for vehicle detection: an application to estimating traffic density and identifying over speeding vehicles on highway scenes | |
JP6853543B2 (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
JP2020135672A (ja) | 交通流の推論 | |
Aswini et al. | Custom Based Obstacle Detection Using Yolo v3 for Low Flying Drones | |
Bhatia et al. | Road Image Segmentation for Autonomous Car | |
Das | Vision-Based Lane and Vehicle Detection: A First Step Toward Autonomous Unmanned Vehicle | |
Huang et al. | Path Planning based on 2D Object Bounding-box |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6910081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |