JP6875021B2 - 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 - Google Patents
有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP6875021B2 JP6875021B2 JP2019185244A JP2019185244A JP6875021B2 JP 6875021 B2 JP6875021 B2 JP 6875021B2 JP 2019185244 A JP2019185244 A JP 2019185244A JP 2019185244 A JP2019185244 A JP 2019185244A JP 6875021 B2 JP6875021 B2 JP 6875021B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- learning
- cnn module
- loss
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 171
- 238000012360 testing method Methods 0.000 title claims description 153
- 238000010998 test method Methods 0.000 title 1
- 230000008569 process Effects 0.000 claims description 134
- 238000012549 training Methods 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 40
- 230000011218 segmentation Effects 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 description 192
- 238000004364 calculation method Methods 0.000 description 19
- 238000012216 screening Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
Claims (30)
- 有用な学習データを取捨選別するためのCNN基盤の学習方法において、
(a)学習装置が、少なくとも一つの入力イメージが獲得されれば、(i)前記入力イメージ内の特定の物体の識別情報や位置情報を獲得するための第1CNNモジュールをもって、前記入力イメージに対して少なくとも一度コンボリューション演算を適用するようにして第1特徴マップを生成するプロセス、及び(ii)前記第1CNNモジュールの学習プロセスに利用される有用な学習データを自動選別(Auto−Screening)し得る第2CNNモジュールをもって前記入力イメージに対して少なくとも一度コンボリューション演算を適用するようにして第2特徴マップを生成するプロセスを遂行する段階;
(b)前記学習装置が、前記第1CNNモジュールをもって、前記第1特徴マップを利用して前記特定の物体の前記識別情報や前記位置情報を示す第1出力を生成するようにし、前記第1出力とこれに該当する原本正解イメージとを参照して第1ロスを算出するようにする段階;
(c)前記学習装置が、前記第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記第1特徴マップと前記第2特徴マップの大きさを同一に変更した後、前記第1特徴マップと前記第2特徴マップとを統合して、第3特徴マップを生成する段階;
(d)前記学習装置が、前記第2CNNモジュールをもって、前記第3特徴マップに少なくとも一度コンボリューション演算を適用して第4特徴マップを生成し、前記第4特徴マップを利用して前記第1ロスの予測値に該当する第2ロスを算出するようにする段階;
(e)前記学習装置が、前記第1ロスと前記第2ロスとを参照して自動選別機のロス(Auto−Screener’s Loss)を算出する段階;及び
(f)前記学習装置が、前記自動選別機のロスを利用してバックプロパゲーション(Backpropagation)を随行し、前記第2CNNモジュールの少なくとも一つのパラメータを最適化する段階;
を含むことを特徴とする方法。 - 前記(f)段階で、
前記学習装置が、前記第1ロスを利用してバックプロパゲーションを遂行して前記第1CNNモジュールの少なくとも一つのパラメータを最適化することを特徴とする第1項に記載の方法。 - 前記第1CNNモジュールは、前記特定の物体の大きさや位置を検出するための物体検出システム(Object Detection System)、前記特定の物体の種類を識別するための分類システム(Classification System)及び前記特定の物体の領域を他の領域と区分するためのセグメンテーションシステム(Segmentation System)のいずれかに含まれ、
前記第2CNNモジュールは少なくとも一つの特定の入力イメージを自動的に選別するための自動選別システム(Auto−Screening System)に含まれるものの、前記特定の入力イメージは、前記第1CNNモジュールに入力される複数の入力イメージの中に含まれ、前記特定の入力のイメージに対応して正確に検出される確率の低い特定の物体各々を含み、
前記第1出力は、前記物体検出システムの出力、前記分類システムの出力及び前記セグメンテーションシステムの出力の一つを示し、
確率が所定の閾値未満であるか否かに対する情報を参照して前記正確に検出される確率が低いかどうかが決定されることを特徴とする第1項記載の方法。 - 前記第2特徴マップの大きさは、前記第1特徴マップよりも大きく、
前記(c)段階で、
前記学習装置は前記第2CNNモジュールをもって、前記第1特徴マップの大きさを前記第2特徴マップの大きさに合うように大きくすることを特徴とする第1項に記載の方法。 - 前記(c)段階で、
前記学習装置は、前記第2CNNモジュールをもって、前記第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記第1特徴マップの大きさを前記第2特徴マップの大きさと同じように変更させることを特徴とする第4項に記載の方法。 - 前記(c)段階で、
前記学習装置は、前記第2CNNモジュールをもって、前記第1特徴マップと前記第2特徴マップとをコンカチネートして、前記第3特徴マップを生成するようにすることを特徴とする第1項に記載の方法。 - 前記(d)段階で、
前記学習装置は、前記第2CNNモジュールをもって、前記第4特徴マップがプーリングレイヤ(Pooling Layer)及びFCレイヤ(Fully−Connected Layer)のうち少なくとも一つを通過させて前記第2ロスを算出することを特徴とする第1項に記載の方法。 - 前記プーリングレイヤは前記第4特徴マップの高さ及び幅を1にすることを特徴とする第7項に記載の方法。
- 前記(f)段階で、
前記学習装置は、前記自動選別機のロスを最小化する方向でバックプロパゲーションを遂行することを特徴とする第1項に記載の方法。 - CNNを基盤に有用な学習データを取捨選別するための方法において、
(a)(I)学習装置が、(i)トレーニングイメージ内の特定の物体の識別情報や位置情報を獲得するための第1CNNモジュールをもって、前記トレーニングイメージに対して少なくとも一度コンボリューション演算を適用するようにして学習用第1特徴マップを生成し、(ii)前記第1CNNモジュールの学習プロセスに利用される有用な学習データを自動選別(Auto−Screening)するための第2CNNモジュールをもって、前記トレーニングイメージに対して少なくとも一度コンボリューション演算を適用するようにして学習用第2特徴マップを生成するプロセス、(II)前記学習装置が、前記第1CNNモジュールをもって前記学習用第1特徴マップを利用して前記特定の物体の前記識別情報や前記位置情報を示す学習用第1出力を生成するようにし、前記学習用第1出力とこれに対応する原本正解イメージとを参照して第1ロスを算出するようにするプロセス、(III)前記学習装置が、前記学習用第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記学習用第1特徴マップと前記学習用第2特徴マップの大きさを同一に変更した後、前記学習用第1特徴マップと前記学習用第2特徴マップとを統合して、学習用第3特徴マップを生成するプロセス、(IV)前記学習装置が、前記第2CNNモジュールをもって、前記学習用第3特徴マップに少なくとも一度コンボリューション演算を適用して学習用第4特徴マップを生成し、前記学習用第4特徴マップを利用して前記第1ロスの予測値に該当する第2ロスを算出するようにするプロセス、(V)前記学習装置が、前記第1ロスと前記第2ロスとを参照して自動選別機のロス(Auto−Screener’s Loss)を算出するプロセス、及び(VI)前記学習装置が、前記自動選別機のロスを利用してバックプロパゲーション(Backpropagation)を随行し、前記第2CNNモジュールの少なくとも一つのパラメータを最適化するプロセスを遂行した状態で、テスト装置が、各々のイメージ候補を各々のテストイメージとして獲得する段階;
(b)前記テスト装置が、(i)前記第1CNNモジュールをもって、前記テストイメージに対してコンボリューション演算を少なくとも一度適用するようにして、テスト用第1特徴マップを生成するプロセス、及び(ii)前記第2CNNモジュールをもって、前記テストイメージに対して少なくとも一度コンボリューション演算を適用するようにしてテスト用第2特徴マップを生成するプロセスを遂行する段階;
(c)前記テスト装置が、前記テスト用第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記テスト用第1特徴マップと前記テスト用第2特徴マップの大きさを同一に変更した後、前記テスト用第1特徴マップと前記テスト用第2特徴マップとを統合して、テスト用第3特徴マップを生成する段階;
(d)前記テスト装置が、前記第2CNNモジュールをもって、前記テスト用第3特徴マップに少なくとも一度コンボリューション演算を適用してテスト用第4特徴マップを生成し、前記テスト用第4特徴マップを利用してロス予測値を算出するようにする段階;及び
(e)前記テスト装置が、前記入力イメージ候補の中から前記ロス予測値が所定の閾値以上の値を有する少なくとも一つのイメージを前記第1CNNモジュールの学習プロセスに利用されるトレーニングイメージとして選別する段階;
を含むことを特徴とする方法。 - 前記第1CNNモジュールは、前記特定の物体の大きさや位置を検出するための物体検出システム、前記特定の物体の種類を識別するための分類システム及び前記特定の物体の領域を他の領域と区分するためのセグメンテーションシステムのいずれかに含まれ、
前記第2CNNモジュールは、トレーニングイメージを自動的に選別するための自動選別システム(Auto−Screening System)に含まれるものの、前記トレーニングイメージは、前記第1CNNモジュールに入力される複数のトレーニングイメージの中に含まれ、前記特定の物体に対応して正確に検出される確率の低い特定の物体各々を含み、
前記学習用第1出力は、前記物体検出システムの出力、前記分類システムの出力及び前記セグメンテーションシステムの出力の一つを示し、
確率が所定の閾値未満であるか否かに対する情報を参照して前記正確に検出される確率が低いかどうかが決定されることを特徴とする第10項に記載の方法。 - 前記学習用第2特徴マップの大きさは、前記学習用第1特徴マップよりも大きく、
前記(III)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第1特徴マップの大きさを前記学習用第2特徴マップの大きさに合うように大きくし、
前記テスト用第2特徴マップの大きさは、前記テスト用第1特徴マップよりも大きく、
前記(c)段階で、
前記テスト装置は、前記第2CNNモジュールをもって、前記テスト用第1特徴マップの大きさを前記テスト用第2特徴マップの大きさに合うように大きくすることを特徴とする第10項に記載の方法。 - 前記(III)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記学習用第1特徴マップの大きさを前記学習用第2特徴マップの大きさと同じように変更させ、
前記(c)段階で、
前記テスト装置は、前記第2CNNモジュールをもって、前記テスト用第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記テスト用第1特徴マップの大きさを前記テスト用第2特徴マップの大きさと同じように変更させることを特徴とする第12項に記載の方法。 - 前記(III)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第1特徴マップと前記学習用第2特徴マップとをコンカチネートして、前記学習用第3特徴マップを生成するようにし、
前記(c)段階で、
前記テスト習装置は、前記第2CNNモジュールをもって、前記テスト用第1特徴マップと前記テスト用第2特徴マップとをコンカチネートして、前記テスト第3特徴マップを生成するようにすることを特徴とする第10項に記載の方法。 - 前記(IV)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第4特徴マップがプーリングレイヤ及びFCレイヤのうち少なくとも一つを通過させて前記第2ロスを算出し、
前記(d)段階で、
前記テスト装置は、前記第2CNNモジュールをもって、前記テスト用第4特徴マップがプーリングレイヤ及びFCレイヤのうち少なくとも一つを通過させて前記ロス予測値を算出することを特徴とする第10項に記載の方法。 - 有用な学習データを取捨選別するためのCNN基盤の学習装置において、
少なくとも一つの入力イメージを獲得するための通信部;及び
(I)(I−1)前記入力イメージ内の特定の物体の識別情報や位置情報を獲得するための第1CNNモジュールをもって、前記入力イメージに対して少なくとも一度コンボリューション演算を適用するようにして第1特徴マップを生成し、(I−2)前記第1CNNモジュールの学習プロセスに利用される有用な学習データを自動選別(Auto−Screening)するための第2CNNモジュールをもって前記入力イメージに対して少なくとも一度コンボリューション演算を遂行するようにして第2特徴マップを生成するプロセス、(II)前記第1CNNモジュールをもって、前記第1特徴マップを利用して前記特定の物体の前記識別情報や前記位置情報を示す第1出力を生成するようにし、前記第1出力とこれに該当する原本正解イメージとを参照して第1ロスを算出するようにするプロセス、(III)前記第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記第1特徴マップと前記第2特徴マップの大きさを同一に変更した後、前記第1特徴マップと前記第2特徴マップとを統合して、第3特徴マップを生成するプロセス、(IV)前記第2CNNモジュールをもって、前記第3特徴マップに少なくとも一度コンボリューション演算を適用して第4特徴マップを生成し、前記第4特徴マップを利用して前記第1ロスの予測値に該当する第2ロスを算出するようにするプロセス、(V)前記第1ロスと前記第2ロスとを参照して自動選別機のロス(Auto−Screener’s Loss)を算出するプロセス、及び(VI)前記自動選別機のロスを利用してバックプロパゲーション(Backpropagation)を随行し、前記第2CNNモジュールの少なくとも一つのパラメータを最適化するプロセスを遂行するプロセッサ;
を含むことを特徴とする装置。 - 前記(VI)プロセスで、
前記プロセッサが、前記第1ロスを利用してバックプロパゲーションを遂行して前記第1CNNモジュールの少なくとも一つのパラメータを最適化するプロセスを遂行することを特徴とする第16項に記載の装置。 - 前記第1CNNモジュールは、前記特定の物体の大きさや位置を検出するための物体検出システム(Object Detection System)、前記特定の物体の種類を識別するための分類システム(Classification System)及び前記特定の物体の領域を他の領域と区分するためのセグメンテーションシステム(Segmentation System)のいずれかに含まれ、
前記第2CNNモジュールは少なくとも一つの特定の入力イメージを自動的に選別するための自動選別システム(Auto−Screening System)に含まれるものの、前記特定の入力イメージは、前記第1CNNモジュールに入力される複数の入力イメージの中に含まれ、前記特定の入力のイメージに対応して正確に検出される確率が低い特定の物体各々を含み、
前記第1出力は、前記物体検出システムの出力、前記分類システムの出力及び前記セグメンテーションシステムの出力の一つを示し、
確率が所定の閾値未満であるか否かに対する情報を参照して前記正確に検出される確率が低いかどうかが決定されることを特徴とする第16項に記載の装置。 - 前記第2特徴マップの大きさは、前記第1特徴マップよりも大きく、
前記(III)プロセスで、
前記プロセッサは前記第2CNNモジュールをもって、前記第1特徴マップの大きさを前記第2特徴マップの大きさに合うように大きくすることを特徴とする第16項に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記第1特徴マップの大きさを前記第2特徴マップの大きさと同じように変更させることを特徴とする第19項に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記第1特徴マップと前記第2特徴マップとをコンカチネートして、前記第3特徴マップを生成するようにすることを特徴とする第16項に記載の装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記第4特徴マップがプーリングレイヤ(Pooling Layer)及びFCレイヤ(Fully−Connected Layer)のうち少なくとも一つを通過させて前記第2ロスを算出することを特徴とする第16項に記載の装置。 - 前記プーリングレイヤは前記第4特徴マップの高さ及び幅を1にすることを特徴とする第22項に記載の装置。
- 前記(IV)プロセスで、
前記プロセッサは、前記自動選別機のロスを最小化する方向でバックプロパゲーションを遂行することを特徴とする第16項に記載の装置。 - CNNを基盤に有用な学習データを取捨選別するためのテスト装置において、
(i)学習装置が、(i−1)トレーニングイメージ内の特定の物体の識別情報や位置情報を獲得するための第1CNNモジュールをもって、前記トレーニングイメージに対して少なくとも一度コンボリューション演算を適用するようにして学習用第1特徴マップを生成し、(i−2)前記第1CNNモジュールの学習プロセスに利用される有用な学習データを自動選別(Auto−Screening)するための第2CNNモジュールをもって、前記トレーニングイメージに対して少なくとも一度コンボリューション演算を適用するようにして学習用第2特徴マップを生成するプロセス、及び(ii)前記学習装置が、前記第1CNNモジュールをもって前記学習用第1特徴マップを利用して前記特定の物体の前記識別情報や前記位置情報を示す学習用第1出力を生成するようにし、前記学習用第1出力とこれに対応する原本正解イメージとを参照して第1ロスを算出するようにするプロセス、(iii)前記学習装置が、前記学習用第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記学習用第1特徴マップと前記学習用第2特徴マップの大きさを同一に変更した後、前記学習用第1特徴マップと前記学習用第2特徴マップとを統合して、学習用第3特徴マップを生成するプロセス、(iv)前記学習装置が、前記第2CNNモジュールをもって、前記学習用第3特徴マップに少なくとも一度コンボリューション演算を適用して学習用第4特徴マップを生成し、前記学習用第4特徴マップを利用して前記第1ロスの予測値に該当する第2ロスを算出するようにするプロセス、(v)前記学習装置が、前記第1ロスと前記第2ロスとを参照して自動選別機のロス(Auto−Screener’s Loss)を算出するプロセス、及び(vi)前記学習装置が、前記自動選別機のロスを利用してバックプロパゲーションを随行し、前記第2CNNモジュールの少なくとも一つのパラメータを最適化するプロセスを遂行した状態で、各々のイメージ候補を各々のテストイメージとして獲得するための通信部;及び
(I)(I−1)第1CNNモジュールをもって、前記テストイメージに対して少なくとも一度コンボリューション演算を適用するようにして、テスト用第1特徴マップを生成し、(I−2)前記第2CNNモジュールをもって、前記テストイメージに対して少なくとも一度コンボリューション演算を適用するようにしてテスト用第2特徴マップを生成するプロセス;(II)前記テスト用第1特徴マップを前記第2CNNモジュールに入力して、前記第2CNNモジュールをもって、前記テスト用第1特徴マップと前記テスト用第2特徴マップの大きさを同一に変更した後、前記テスト用第1特徴マップと前記テスト用第2特徴マップとを統合して、テスト用第3特徴マップを生成するプロセス;(III)前記第2CNNモジュールをもって、前記テスト用第3特徴マップに少なくとも一度コンボリューション演算を適用してテスト用第4特徴マップを生成し、前記テスト用第4特徴マップを利用してロス予測値を算出するようにするプロセス;及び(IV)前記入力イメージ候補の中から前記ロス予測値が所定の閾値以上の値を有する少なくとも一つのイメージを前記第1CNNモジュールの学習プロセスに利用されるトレーニングイメージとして選別するプロセスを遂行するプロセッサ;
を含むことを特徴とする方法。 - 前記第1CNNモジュールは、前記特定の物体の大きさや位置を検出するための物体検出システム、前記特定の物体の種類を識別するための分類システム及び前記特定の物体の領域を他の領域と区分するためのセグメンテーションシステムのいずれかに含まれ、
前記第2CNNモジュールは、トレーニングイメージを自動的に選別するための自動選別システム(Auto−Screening System)に含まれるものの、前記トレーニングイメージは、前記第1CNNモジュールに入力される複数のトレーニングイメージの中に含まれ、前記特定の物体に対応して正確に検出される確率の低い特定の物体各々を含み、
前記学習用第1出力は、前記物体検出システムの出力、前記分類システムの出力及び前記セグメンテーションシステムの出力の一つを示し、
確率が所定の閾値未満であるか否かに対する情報を参照して前記正確に検出される確率が低いかどうかが決定されることを特徴とする第25項に記載の装置。 - 前記学習用第2特徴マップの大きさは、前記学習用第1特徴マップよりも大きく、
前記(iii)プロセスで、
前記学習装置は前記第2CNNモジュールをもって、前記学習用第1特徴マップの大きさを前記学習用第2特徴マップの大きさに合うように大きくし、
前記テスト用第2特徴マップの大きさは、前記テスト用第1特徴マップよりも大きく、
前記(II)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記テスト用第1特徴マップの大きさを前記テスト用第2特徴マップの大きさに合うように大きくすることを特徴とする第25項に記載の装置。 - 前記(iii)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記学習用第1特徴マップの大きさを前記学習用第2特徴マップの大きさと同じように変更させ、
前記(II)段階で、
前記プロセッサは、前記第2CNNモジュールをもって、前記テスト用第1特徴マップに所定回数のコンボリューション演算を適用するようにして、前記テスト用第1特徴マップの大きさを前記テスト用第2特徴マップの大きさと同じように変更させることを特徴とする第27項に記載の装置。 - 前記(iii)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第1特徴マップと前記学習用第2特徴マップとをコンカチネートして、前記学習用第3特徴マップを生成するようにし、
前記(II)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記テスト用第1特徴マップと前記テスト用第2特徴マップとをコンカチネートして、前記テスト第3特徴マップを生成するようにすることを特徴とする第25項に記載の装置。 - 前記(iv)プロセスで、
前記学習装置は、前記第2CNNモジュールをもって、前記学習用第4特徴マップがプーリングレイヤ及びFCレイヤのうち少なくとも一つを通過させて前記第2ロスを算出し、
前記(c)プロセスで、
前記プロセッサは、前記第2CNNモジュールをもって、前記テスト用第4特徴マップがプーリングレイヤ及びFCレイヤのうち少なくとも一つを通過させて前記ロス予測値を算出することを特徴とする第25項に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/171,755 | 2018-10-26 | ||
US16/171,755 US10504027B1 (en) | 2018-10-26 | 2018-10-26 | CNN-based learning method, learning device for selecting useful training data and test method, test device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020068028A JP2020068028A (ja) | 2020-04-30 |
JP6875021B2 true JP6875021B2 (ja) | 2021-05-19 |
Family
ID=67211567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185244A Active JP6875021B2 (ja) | 2018-10-26 | 2019-10-08 | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10504027B1 (ja) |
EP (1) | EP3644236B1 (ja) |
JP (1) | JP6875021B2 (ja) |
KR (1) | KR102309711B1 (ja) |
CN (1) | CN111105011B (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452976B2 (en) * | 2016-09-07 | 2019-10-22 | Samsung Electronics Co., Ltd. | Neural network based recognition apparatus and method of training neural network |
US10799189B2 (en) | 2017-11-22 | 2020-10-13 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
US10783634B2 (en) * | 2017-11-22 | 2020-09-22 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
WO2020121678A1 (ja) * | 2018-12-14 | 2020-06-18 | 富士フイルム株式会社 | ミニバッチ学習装置とその作動プログラム、作動方法、および画像処理装置 |
CN111666960B (zh) * | 2019-03-06 | 2024-01-19 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
US12079991B2 (en) * | 2019-06-12 | 2024-09-03 | Carnegie Mellon University | Deep-learning models for image processing |
KR20190087351A (ko) * | 2019-07-05 | 2019-07-24 | 엘지전자 주식회사 | 머신 러닝 시스템, 방법 및 장치 |
US10943353B1 (en) | 2019-09-11 | 2021-03-09 | International Business Machines Corporation | Handling untrainable conditions in a network architecture search |
US11023783B2 (en) * | 2019-09-11 | 2021-06-01 | International Business Machines Corporation | Network architecture search with global optimization |
US11334987B2 (en) * | 2019-10-09 | 2022-05-17 | Siemens Medical Solutions Usa, Inc. | Physics-constrained network and training thereof |
WO2021084590A1 (ja) * | 2019-10-28 | 2021-05-06 | 富士通株式会社 | 学習方法、学習プログラム、および学習装置 |
KR102733834B1 (ko) * | 2019-11-19 | 2024-11-26 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11157813B1 (en) * | 2020-04-24 | 2021-10-26 | StradVision, Inc. | Method and device for on-vehicle active learning to be used for training perception network of autonomous vehicle |
JP7486349B2 (ja) * | 2020-05-28 | 2024-05-17 | キヤノン株式会社 | ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置 |
KR20210155179A (ko) * | 2020-06-15 | 2021-12-22 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US12131244B2 (en) | 2020-07-16 | 2024-10-29 | Google Llc | Hardware-optimized neural architecture search |
EP4116871A1 (en) * | 2021-07-08 | 2023-01-11 | Argo AI GmbH | Method and processing unit for processing sensor data of several different sensors with an artificial neural network in a vehicle |
CN117561537A (zh) | 2021-10-07 | 2024-02-13 | 三星电子株式会社 | 显示设备及其操作方法 |
KR20230050127A (ko) * | 2021-10-07 | 2023-04-14 | 삼성전자주식회사 | 디스플레이 장치 및 그 동작방법 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
WO2017106998A1 (en) * | 2015-12-21 | 2017-06-29 | Sensetime Group Limited | A method and a system for image processing |
US9665799B1 (en) * | 2016-01-29 | 2017-05-30 | Fotonation Limited | Convolutional neural network |
US9471836B1 (en) * | 2016-04-01 | 2016-10-18 | Stradvision Korea, Inc. | Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same |
WO2018035805A1 (en) * | 2016-08-25 | 2018-03-01 | Intel Corporation | Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation |
US9965863B2 (en) * | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
US10726312B2 (en) * | 2016-12-05 | 2020-07-28 | Avigilon Corporation | System and method for appearance search |
JP6567488B2 (ja) * | 2016-12-22 | 2019-08-28 | 日本電信電話株式会社 | 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム |
CN108460464A (zh) * | 2017-02-22 | 2018-08-28 | 中兴通讯股份有限公司 | 深度学习训练方法及装置 |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
US11068751B2 (en) * | 2017-03-21 | 2021-07-20 | Nec Corporation | Image processing device, image processing method, and storage medium |
US10572963B1 (en) * | 2017-07-14 | 2020-02-25 | Synapse Technology Corporation | Detection of items |
CN108596184B (zh) * | 2018-04-25 | 2021-01-12 | 清华大学深圳研究生院 | 图像语义分割模型的训练方法、可读存储介质及电子设备 |
US10796200B2 (en) * | 2018-04-27 | 2020-10-06 | Intel Corporation | Training image signal processors using intermediate loss functions |
-
2018
- 2018-10-26 US US16/171,755 patent/US10504027B1/en active Active
-
2019
- 2019-07-08 EP EP19184885.2A patent/EP3644236B1/en active Active
- 2019-08-27 KR KR1020190105486A patent/KR102309711B1/ko active Active
- 2019-10-08 JP JP2019185244A patent/JP6875021B2/ja active Active
- 2019-10-22 CN CN201911007257.9A patent/CN111105011B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR102309711B1 (ko) | 2021-10-08 |
EP3644236A1 (en) | 2020-04-29 |
US10504027B1 (en) | 2019-12-10 |
KR20200047307A (ko) | 2020-05-07 |
CN111105011B (zh) | 2023-10-20 |
EP3644236C0 (en) | 2024-03-13 |
JP2020068028A (ja) | 2020-04-30 |
EP3644236B1 (en) | 2024-03-13 |
CN111105011A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
JP6820030B2 (ja) | 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same} | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6855091B2 (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
JP6857370B2 (ja) | ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6932395B2 (ja) | イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置 | |
JP6908944B2 (ja) | 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6908943B2 (ja) | イメージコンカチネーションと、ターゲット物体予測ネットワークとを利用して、多重カメラ又はサラウンドビューモニタリングに利用される物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6856952B2 (ja) | 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6850046B2 (ja) | 重要業績評価指標のようなユーザ要求事項に適したターゲット物体予測ネットワークを用いた、cnn基盤の変動に強い物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
KR20200071808A (ko) | 객체 검출기의 학습 방법, 이를 수행하기 위한 기록매체 및 장치 | |
KR20230149255A (ko) | 경계선 지정을 통한 어노테이션 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6875021 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |