JP2020038658A - エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents
エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP2020038658A JP2020038658A JP2019159829A JP2019159829A JP2020038658A JP 2020038658 A JP2020038658 A JP 2020038658A JP 2019159829 A JP2019159829 A JP 2019159829A JP 2019159829 A JP2019159829 A JP 2019159829A JP 2020038658 A JP2020038658 A JP 2020038658A
- Authority
- JP
- Japan
- Prior art keywords
- test
- specific
- image
- learning
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
されることを特徴とする。
されることを特徴とする。
Claims (30)
- CNN基盤の特定の物体検出のための方法において、
(a)入力イメージが取得されると、学習装置が、(i)前記入力イメージに対して少なくとも一回コンボリューション演算を適用して少なくとも一つの特定の特徴マップを取得するプロセス、及び(ii)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのガイドマップを取得するプロセスを遂行する段階;及び
(b)前記学習装置が、前記特定の特徴マップに前記ガイドマップを反映して前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得する段階;
を含むことを特徴とする学習方法。 - 前記エッジイメージは、前記入力イメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項1に記載の学習方法。
- 前記エッジイメージは、前記入力イメージピクセルのグラディエントを算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項1に記載の学習方法。
- 前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
前記第1重み付け値が前記第2重み付け値より大きいことを特徴とする請求項1に記載の学習方法。 - 前記ガイドマップは、前記エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする請求項1に記載の方法。
- 前記(b)段階で、
前記学習装置は、前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする請求項1に記載の方法。 - 前記(b)段階は、
(b1)前記特定の特徴マップが複数個ある状態で、前記学習装置が、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために前記ガイドマップの大きさを調整する段階;及び(b2)前記学習装置が、前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成する段階;
を含むことを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記ガイドマップが反映された前記特定の特徴マップは、前記学習装置のエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択されることを特徴とする請求項1に記載の方法。 - 前記特定の物体は、道路の少なくとも一つの車線であることを特徴とする請求項1に記載の学習方法。
- (c)前記学習装置が、前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出する段階及び、
(d)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化する段階;
をさらに含むことを特徴とする請求項1に記載の学習方法。 - CNN基盤イメージに含まれた少なくとも一つの特定の物体を検出するためのテスト方法において、
(a)(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジイメージで前記特定の物体と類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して、前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テスト装置がテストイメージを取得する段階;
(b)前記テスト装置が、(i)前記テストイメージに対して、少なくとも一回コンボリューション演算を適用して少なくとも一つの特定のテスト用特徴マップを取得するプロセス、及び(ii)前記テストイメージから少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセスを遂行する段階;及び
(c)前記テスト装置が、前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して、前記テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得する段階;
を含むことを特徴とするテスト方法。 - 前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項11に記載のテスト方法。
- 前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項11に記載のテスト方法。
- 前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
前記第1重み付け値が前記第2重み付け値よりも大きく、
前記テスト用ガイドマップは、前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする請求項11に記載の方法。 - 前記(c)段階は、
(c1)前記特定のテスト用特徴マップが複数個ある状態で、前記テスト装置が、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整する段階;及び
(c2)前記テスト装置が、前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成する段階;
を含むことを特徴とする請求項11に記載の方法。 - CNN基盤の特定の物体検出のための学習装置において、
トレーニングイメージとしての入力イメージを取得するための通信部;及び
(I)前記入力イメージに対して、少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の特徴マップを取得するプロセス、(II)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのガイドマップを取得するプロセスを遂行するプロセス、及び(III)前記特定の特徴マップに前記ガイドマップを反映して、前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得するプロセスを遂行するプロセッサ;
を含むことを特徴とする学習装置。 - 前記エッジイメージは、前記入力イメージにおいて特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項16に記載の学習装置。
- 前記エッジイメージは、前記入力イメージピクセルのグラディエントを算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項16に記載の学習装置。
- 前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
前記第1重み付け値が、前記第2重み付け値より大きいことを特徴とする請求項16に記載の学習装置。 - 前記ガイドマップは、前記エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする請求項16に記載の学習装置。
- 前記(III)プロセスで、
前記プロセッサは、前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする請求項16に記載の装置。 - 前記(III)プロセスで、
(III−1)前記特定の特徴マップが複数個ある状態で、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために、前記ガイドマップの大きさを調整するプロセス;及び
(III−2)前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成するプロセス;
を含むことを特徴とする請求項21に記載の装置。 - 前記(III)プロセスで、
前記ガイドマップが反映された前記特定の特徴マップは、そのエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択されることを特徴とする請求項16に記載の装置。 - 前記特定の物体は、道路の少なくとも一つの車線であることを特徴とする請求項16に記載の学習装置。
- 前記プロセッサは、
(IV)前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス;及び
(V)前記セグメンテーションロスを利用してバックプロパゲーションを遂行して、その少なくとも一つのパラメータを最適化するプロセス;
をさらに遂行することを特徴とする請求項16に記載の学習装置。 - CNN基盤イメージに含まれた少なくとも一つの特定の物体を検出するためのテスト装置において、
(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む、少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テストイメージを取得する通信部;及び
(I)前記テストイメージに対して少なくとも一回コンボリューション演算を適用して少なくとも一つの特定のテスト用特徴マップを取得し、前記テストイメージから少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージで前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセス、及び(II)前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して前記テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得するプロセスを遂行するプロセッサ;
を含むことを特徴とするテスト装置。 - 前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項26に記載のテスト装置。
- 前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項26に記載のテスト装置。
- 前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を付与し、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
前記第1重み付け値が前記第2重み付け値よりも大きく、
前記テスト用ガイドマップは、前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする請求項26に記載の装置。 - 前記(II)プロセスは、
(II−1)前記特定のテスト用特徴マップが複数個ある状態で、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整するプロセス;及び
(II−2)前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成するプロセス;
を含むことを特徴とする請求項26に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/120,664 | 2018-09-04 | ||
US16/120,664 US10229346B1 (en) | 2018-09-04 | 2018-09-04 | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020038658A true JP2020038658A (ja) | 2020-03-12 |
Family
ID=65633215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019159829A Pending JP2020038658A (ja) | 2018-09-04 | 2019-09-02 | エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10229346B1 (ja) |
EP (1) | EP3620979B1 (ja) |
JP (1) | JP2020038658A (ja) |
KR (1) | KR102325033B1 (ja) |
CN (1) | CN110874841B (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110096933B (zh) * | 2018-01-30 | 2023-07-18 | 华为技术有限公司 | 目标检测的方法、装置及系统 |
EP3762865A1 (en) * | 2018-03-05 | 2021-01-13 | Omron Corporation | Method, apparatus, system and program for determining feature data of image data, and storage medium |
KR102666072B1 (ko) * | 2018-06-05 | 2024-05-17 | 삼성전자주식회사 | 기계 학습 장치 및 기계 학습 장치의 학습 방법 |
US10311321B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device using regression loss and testing method, testing device using the same |
US11195053B2 (en) * | 2018-11-27 | 2021-12-07 | Raytheon Company | Computer architecture for artificial image generation |
WO2020112189A1 (en) * | 2018-11-27 | 2020-06-04 | Raytheon Company | Computer architecture for artificial image generation using auto-encoder |
US10373317B1 (en) * | 2019-01-22 | 2019-08-06 | StradVision, Inc. | Learning method and learning device for attention-driven image segmentation by using at least one adaptive loss weight map to be used for updating HD maps required to satisfy level 4 of autonomous vehicles and testing method and testing device using the same |
US10402692B1 (en) * | 2019-01-22 | 2019-09-03 | StradVision, Inc. | Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers' requirements such as key performance index, and testing device using the same |
US10346693B1 (en) * | 2019-01-22 | 2019-07-09 | StradVision, Inc. | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same |
US10387753B1 (en) * | 2019-01-23 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same |
US10395140B1 (en) * | 2019-01-23 | 2019-08-27 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same |
US10496899B1 (en) * | 2019-01-25 | 2019-12-03 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same |
US10410352B1 (en) * | 2019-01-25 | 2019-09-10 | StradVision, Inc. | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same |
US10373323B1 (en) * | 2019-01-29 | 2019-08-06 | StradVision, Inc. | Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using V2X-enabled applications, sensor fusion via multiple vehicles |
US10373027B1 (en) * | 2019-01-30 | 2019-08-06 | StradVision, Inc. | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same |
US10373004B1 (en) * | 2019-01-31 | 2019-08-06 | StradVision, Inc. | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image |
US10423840B1 (en) * | 2019-01-31 | 2019-09-24 | StradVision, Inc. | Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map |
CN112116083B (zh) * | 2019-06-20 | 2024-03-08 | 地平线(上海)人工智能技术有限公司 | 神经网络加速器及其检测方法和装置 |
CN110298321B (zh) * | 2019-07-02 | 2021-03-23 | 中国科学院空天信息创新研究院 | 基于深度学习图像分类的道路阻断信息提取方法 |
CN110490082B (zh) * | 2019-07-23 | 2022-04-05 | 浙江科技学院 | 一种有效融合神经网络特征的道路场景语义分割方法 |
US11688155B2 (en) * | 2020-01-06 | 2023-06-27 | Luminar, Llc | Lane detection and tracking techniques for imaging systems |
KR102144706B1 (ko) * | 2020-03-11 | 2020-08-14 | 아주대학교산학협력단 | 합성곱 신경망 기반의 도로 검출 장치 및 방법 |
CN111583229B (zh) * | 2020-05-09 | 2024-01-05 | 江苏野马软件科技有限公司 | 一种基于卷积神经网络路面故障检测方法 |
CN111738295B (zh) * | 2020-05-22 | 2024-03-22 | 南通大学 | 图像的分割方法及存储介质 |
CN111932545B (zh) * | 2020-07-14 | 2024-08-02 | 浙江大华技术股份有限公司 | 图像处理方法、目标计数方法及其相关装置 |
CN112069958A (zh) * | 2020-08-27 | 2020-12-11 | 广西柳工机械股份有限公司 | 物料识别方法、装置、设备及存储介质 |
US12136250B2 (en) * | 2021-05-27 | 2024-11-05 | Adobe Inc. | Extracting attributes from arbitrary digital images utilizing a multi-attribute contrastive classification neural network |
KR102333642B1 (ko) * | 2021-06-04 | 2021-12-01 | 셀렉트스타 주식회사 | 크라우드소싱에서 이미지에 포함된 객체의 윤곽정보에 대한 가이드정보를 제공하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체 |
CN113298837B (zh) * | 2021-07-27 | 2021-11-26 | 南昌工程学院 | 一种图像边缘提取方法、装置、存储介质及设备 |
KR20230057117A (ko) | 2021-10-21 | 2023-04-28 | 동의대학교 산학협력단 | 인공 신경망 적용 객체 감지 과정에서의 효과적인 하드웨어 사용을 위한 시스템 및 방법 |
CN115588024B (zh) * | 2022-11-25 | 2023-06-20 | 东莞市兆丰精密仪器有限公司 | 一种基于人工智能的复杂工业影像边缘提取方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259994A (ja) * | 2001-01-31 | 2002-09-13 | Gretag Imaging Trading Ag | 自動イメージパターン検出方法及びイメージ処理装置 |
JP2004000706A (ja) * | 2003-07-14 | 2004-01-08 | Toshiba Corp | 画像処理装置及び画像処理方法 |
JP2007219765A (ja) * | 2006-02-15 | 2007-08-30 | Toyota Motor Corp | 画像処理装置、その方法、および画像処理用プログラム |
JP2008181422A (ja) * | 2007-01-25 | 2008-08-07 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法、車両制御装置および車両制御方法 |
JP2010165204A (ja) * | 2009-01-16 | 2010-07-29 | Nissan Motor Co Ltd | 車線認識装置および車線認識方法 |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
WO2017187516A1 (ja) * | 2016-04-26 | 2017-11-02 | 株式会社日立製作所 | 情報処理システムおよびその運用方法 |
WO2017208367A1 (ja) * | 2016-05-31 | 2017-12-07 | 株式会社Pfu | 画像処理装置、画像処理方法、および、プログラム |
WO2018063451A1 (en) * | 2016-09-29 | 2018-04-05 | Magic Leap, Inc. | Neural network for eye image segmentation and image quality estimation |
JP2018132855A (ja) * | 2017-02-14 | 2018-08-23 | 国立大学法人電気通信大学 | 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160239706A1 (en) * | 2015-02-13 | 2016-08-18 | Qualcomm Incorporated | Convolution matrix multiply with callback for deep tiling for deep convolutional neural networks |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN106651886A (zh) * | 2017-01-03 | 2017-05-10 | 北京工业大学 | 一种基于超像素聚类优化cnn的云图分割方法 |
US10373002B2 (en) * | 2017-03-31 | 2019-08-06 | Here Global B.V. | Method, apparatus, and system for a parametric representation of lane lines |
CN107680090A (zh) * | 2017-10-11 | 2018-02-09 | 电子科技大学 | 基于改进全卷积神经网络的输电线路绝缘子状态识别方法 |
CN107680113A (zh) * | 2017-10-27 | 2018-02-09 | 武汉大学 | 基于贝叶斯框架边缘先验的多层分割网络的图像分割方法 |
CN108062756B (zh) * | 2018-01-29 | 2020-04-14 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
-
2018
- 2018-09-04 US US16/120,664 patent/US10229346B1/en active Active
-
2019
- 2019-05-06 EP EP19172861.7A patent/EP3620979B1/en active Active
- 2019-08-27 KR KR1020190105474A patent/KR102325033B1/ko active IP Right Grant
- 2019-08-29 CN CN201910806785.4A patent/CN110874841B/zh active Active
- 2019-09-02 JP JP2019159829A patent/JP2020038658A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259994A (ja) * | 2001-01-31 | 2002-09-13 | Gretag Imaging Trading Ag | 自動イメージパターン検出方法及びイメージ処理装置 |
JP2004000706A (ja) * | 2003-07-14 | 2004-01-08 | Toshiba Corp | 画像処理装置及び画像処理方法 |
JP2007219765A (ja) * | 2006-02-15 | 2007-08-30 | Toyota Motor Corp | 画像処理装置、その方法、および画像処理用プログラム |
JP2008181422A (ja) * | 2007-01-25 | 2008-08-07 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法、車両制御装置および車両制御方法 |
JP2010165204A (ja) * | 2009-01-16 | 2010-07-29 | Nissan Motor Co Ltd | 車線認識装置および車線認識方法 |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
WO2017187516A1 (ja) * | 2016-04-26 | 2017-11-02 | 株式会社日立製作所 | 情報処理システムおよびその運用方法 |
WO2017208367A1 (ja) * | 2016-05-31 | 2017-12-07 | 株式会社Pfu | 画像処理装置、画像処理方法、および、プログラム |
WO2018063451A1 (en) * | 2016-09-29 | 2018-04-05 | Magic Leap, Inc. | Neural network for eye image segmentation and image quality estimation |
JP2018132855A (ja) * | 2017-02-14 | 2018-08-23 | 国立大学法人電気通信大学 | 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110874841A (zh) | 2020-03-10 |
EP3620979A1 (en) | 2020-03-11 |
EP3620979B1 (en) | 2023-08-09 |
KR20200027428A (ko) | 2020-03-12 |
EP3620979C0 (en) | 2023-08-09 |
CN110874841B (zh) | 2023-08-29 |
US10229346B1 (en) | 2019-03-12 |
KR102325033B1 (ko) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020038658A (ja) | エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
EP3620956B1 (en) | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same | |
KR102114357B1 (ko) | 풀링 타입에 대한 정보를 포함하는 테이블을 작성하기 위한 방법, 장치 및 이를 이용한 테스팅 방법, 테스팅 장치 | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
US20200250402A1 (en) | Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation | |
CN111488782B (zh) | 利用拉普拉斯金字塔网络检测道路障碍物的方法和装置 | |
JP4905931B2 (ja) | 人体領域抽出方法および装置並びにプログラム | |
KR102279388B1 (ko) | 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102320985B1 (ko) | 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN111476343B (zh) | 利用掩蔽参数的方法和装置 | |
JP2020038669A (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
CN111476811B (zh) | 分割图像的学习方法和装置及利用它们的测试方法和装置 | |
EP3623991B1 (en) | Learning method, learning device for detecting lanes on the basis of cnn and testing method, testing device using the same | |
Ali et al. | Asphalt Pavement Potholes Localization and Segmentation using Deep Retina Net and Conditional Random Fields | |
WO2022222087A1 (en) | Method and apparatus for generating adversarial patch | |
KR102340354B1 (ko) | 멀티 스케일 컨볼루션 필터를 이용한 객체 검출 방법 | |
Jalba et al. | Automatic segmentation of diatom images | |
KR20240016866A (ko) | 객체 추적 방법 및 장치 | |
KR20230075695A (ko) | 기계 학습을 통해 영상에서 객체를 검출하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210629 |