JP6846069B2 - 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} - Google Patents
遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} Download PDFInfo
- Publication number
- JP6846069B2 JP6846069B2 JP2020002303A JP2020002303A JP6846069B2 JP 6846069 B2 JP6846069 B2 JP 6846069B2 JP 2020002303 A JP2020002303 A JP 2020002303A JP 2020002303 A JP2020002303 A JP 2020002303A JP 6846069 B2 JP6846069 B2 JP 6846069B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- test
- nth
- learning
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 450
- 230000013016 learning Effects 0.000 title claims description 224
- 238000001514 detection method Methods 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 67
- 238000010998 test method Methods 0.000 title claims description 6
- 238000005457 optimization Methods 0.000 title description 3
- 238000012545 processing Methods 0.000 claims description 134
- 238000012549 training Methods 0.000 claims description 99
- 238000003754 machining Methods 0.000 claims description 41
- 238000011176 pooling Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 19
- 101150081532 KLK8 gene Proteins 0.000 claims description 11
- 230000010354 integration Effects 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 38
- 239000000758 substrate Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
本発明は、演算量を増加させずに前記イメージ上の前記物体を検出することができるようにする、前記CNN基盤の前記物体検出器を提供することをまた他の目的とする。
になるようにすることを特徴とする。
になるようにすることを特徴とする。
になるようにすることを特徴とする。
になるようにすることを特徴とする。
となるようにすることができる。これを通じて、前記CNNのオーバーヘッド(overhead)を最小化することができる。
参考までに、以下の説明で混同を防止するために、学習プロセスに関連する用語には「学習用」という文言が追加され、テストプロセスに関連する用語には「テスト用」という文言が追加された。
次に、前記プロセッサ220は、(i)前記ターゲット領域予測ネットワークをもって、少なくとも一つのテストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させるプロセスを遂行することができる。そして、前記プロセッサ220は、(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリングされた統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させることができる。
になるようにすることができる。
Claims (30)
- イメージコンカチネーション(Image concatenation)を利用した、CNN基盤物体検出器のパラメータを学習する方法において、
(a)少なくとも一つのトレーニングイメージが入力されると、学習装置が、(i)ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させる段階;
(b)前記学習装置が、(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させる段階;及び
(c)前記学習装置が、少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整させる段階;
を含むことを特徴とする方法。 - 前記(b)段階以後、
前記学習装置が、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記学習装置が、前記イメージ加工ネットワークをもって、第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする請求項1に記載の方法。 - 前記学習装置が、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング(zero padding)領域を追加させることを特徴とする請求項3に記載の方法。
- 前記(a)段階で、
前記学習装置は、前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記学習装置は、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする請求項1に記載の方法。 - 前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする請求項1に記載の方法。
- イメージコンカチネーションを利用したCNN基盤物体検出器をテストする方法において、
(a)学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、テスト装置が、少なくとも一つのテストイメージが取得されると、(a−i)前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(a−ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから、前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(a−iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させる段階;及び
(b)前記テスト装置が、(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させる段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする請求項9に記載の方法。 - 前記テスト装置が、前記イメージ加工ネットワークをもって、前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項10に記載の方法。
- 前記(a)段階で、
前記テスト装置は、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする請求項9に記載の方法。 - 前記(a)段階 で、
前記テスト装置は、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする請求項9に記載の方法。 - 前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする請求項9に記載の方法。
- イメージコンカチネーションを利用した、CNN基盤物体検出器のパラメータを学習するための学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズ済みイメージにおいて一つ以上のターゲット物体が位置するものと予測される領域に対応する第1ターゲット領域ないし第nターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを取得させ、(iii)前記第1加工イメージないし前記第n加工イメージをコンカチネートした統合トレーニングイメージを出力させるプロセス、(II)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの統合特徴マップを出力させ、(ii)RPNをもって、前記統合特徴マップを利用して、前記第1加工イメージないし前記第n加工イメージそれぞれ内に位置する一つ以上の物体に対応する第1物体プロポーザルないし第n物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記統合特徴マップ上で、前記第1物体プロポーザルないし前記第n物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つのプーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記物体に対応する第1物体検出情報ないし第n物体検出情報を出力させるプロセス、及び(III)少なくとも一つのFCロスレイヤをもって、前記第1物体検出情報ないし前記第n物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする学習装置。 - 前記プロセッサは、
前記(II)プロセス以後、少なくとも一つのRPNロスレイヤをもって、前記第1物体プロポーザルないし前記第n物体プロポーザルとこれに対応する原本正解とを参照して、一つ以上の第1RPNロスないし一つ以上の第nRPNロスを取得させることにより、前記第1RPNロスないし前記第nRPNロスを利用したバックプロパゲーションを通じて、前記RPNのパラメータのうち少なくとも一部を調整することを特徴とする請求項16に記載の学習装置。 - 前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1加工イメージないし前記第n加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1調整済み加工イメージないし前記第n調整済み加工イメージをコンカチネート(concatenate)させることを特徴とする請求項16に記載の学習装置。 - 前記プロセッサは、前記イメージ加工ネットワークをもって、前記第1調整済み加工イメージないし前記第n調整済み加工イメージのうち、隣接するそれぞれの二つの調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項18に記載の学習装置。
- 前記プロセッサは、
前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージそれぞれに対するそれぞれのスケールヒストグラムを演算させ、前記スケールヒストグラムを参照することにより、前記ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1ターゲット領域ないし前記第nターゲット領域を予測させることを特徴とする請求項16に記載の学習装置。 - 前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1加工イメージないし前記第n加工イメージを取得させるか、前記トレーニングイメージまたはこれに対応するリサイズ済みイメージ上で前記第1ターゲット領域ないし前記第nターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1加工イメージないし前記第n加工イメージを取得させることを特徴とする請求項16に記載の学習装置。 - 前記第1ターゲット領域ないし前記第nターゲット領域は、前記トレーニングイメージ内に位置する前記ターゲット物体のうち互いに異なる多数のターゲット物体に対応するか、前記トレーニングイメージ及びこれに対応するリサイズ済みイメージ内に位置する少なくとも一つの同一のターゲット物体に対応することを特徴とする請求項16に記載の学習装置。
- イメージコンカチネーションを利用した、CNN基盤物体検出器をテストするためのテスト装置において、
各インストラクションを格納する少なくとも一つのメモリと、
学習装置が、(1)(i)ターゲット領域予測ネットワークをもって、少なくとも一つのトレーニングイメージまたはこれに対応する一つ以上のリサイズされた学習用イメージにおいて一つ以上の学習用ターゲット物体が位置するものと予測される領域に対応する第1学習用ターゲット領域ないし第n学習用ターゲット領域それぞれを予測させ、(ii)イメージ加工ネットワークをもって、前記トレーニングイメージまたはこれに対応するリサイズされた学習用イメージから前記第1学習用ターゲット領域ないし前記第n学習用ターゲット領域それぞれに対応する第1学習用加工イメージないし第n学習用加工イメージを取得させ、(iii)前記第1学習用加工イメージないし前記第n学習用加工イメージをコンカチネートした統合トレーニングイメージを出力させ、(2)(i)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記統合トレーニングイメージに適用することにより、少なくとも一つの学習用統合特徴マップを出力させ、(ii)RPNをもって、前記学習用統合特徴マップを利用して、前記第1学習用加工イメージないし前記第n学習用加工イメージそれぞれ内に位置する一つ以上の学習用物体に対応する第1学習用物体プロポーザルないし第n学習用物体プロポーザルそれぞれを出力させ、(iii)プーリングレイヤをもって、前記学習用統合特徴マップ上で、前記第1学習用物体プロポーザルないし前記第n学習用物体プロポーザルそれぞれに対応するそれぞれの領域に一つ以上のプーリング演算を適用して、少なくとも一つの学習用プーリング済み統合特徴マップを出力させ、(iv)FCレイヤをもって、前記学習用プーリング済み統合特徴マップに少なくとも一つのFC(fully connected)演算を適用して、前記学習用物体に対応する第1学習用物体検出情報ないし第n学習用物体検出情報を出力させ、(3)少なくとも一つのFCロスレイヤをもって、前記第1学習用物体検出情報ないし前記第n学習用物体検出情報とこれに対応する原本正解(Ground Truth)とを参照して、一つ以上の第1FCロスないし一つ以上の第nFCロスを取得させることにより、前記第1FCロスないし前記第nFCロスを利用したバックプロパゲーションを通じて、前記FCレイヤ及び前記コンボリューションレイヤのパラメータのうち少なくとも一部を調整した状態で、(I)(i)前記ターゲット領域予測ネットワークをもって、少なくとも一つのテストイメージまたはこれに対応する一つ以上のリサイズされたテスト用イメージで一つ以上のテスト用ターゲット物体が位置するものと予測される領域に対応する第1テスト用ターゲット領域ないし第nテスト用ターゲット領域それぞれを予測させ、(ii)前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージから前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域それぞれに対応する第1テスト用加工イメージないし第nテスト用加工イメージを取得させ、(iii)前記第1テスト用加工イメージないし前記第nテスト用加工イメージをコンカチネートした統合テストイメージを出力させるプロセス、及び(II)(i)前記コンボリューションレイヤをもって、前記コンボリューション演算を前記統合テストイメージに適用することにより、少なくとも一つのテスト用統合特徴マップを出力させ、(ii)前記RPNをもって、前記テスト用統合特徴マップを利用して、前記第1テスト用加工イメージないし前記第nテスト用加工イメージそれぞれ内に位置する一つ以上のテスト用物体に対応する第1テスト用物体プロポーザルないし第nテスト用物体プロポーザルそれぞれを出力させ、(iii)前記プーリングレイヤをもって、前記テスト用統合特徴マップ上で、前記第1テスト用物体プロポーザルないし前記第nテスト用物体プロポーザルそれぞれに対応するそれぞれの領域に前記プーリング演算を適用して、少なくとも一つのテスト用プーリング済み統合特徴マップを出力させ、(iv)前記FCレイヤをもって、前記テスト用プーリング済み統合特徴マップに前記FC演算を適用して、前記テスト用物体に対応する第1テスト用物体検出情報ないし第nテスト用物体検出情報を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするテスト装置。 - 前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記第1テスト用加工イメージないし前記第nテスト用加工イメージの幅と高さのうち少なくとも一つを同一に調整した後、同一の大きさに調整された前記幅または前記高さ方向に前記第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージをコンカチネートさせることを特徴とする請求項24に記載のテスト装置。 - 前記プロセッサは、前記イメージ加工ネットワークをもって、第1テスト用調整済み加工イメージないし前記第nテスト用調整済み加工イメージのうち、隣接するそれぞれの二つのテスト用調整済み加工イメージから構成されるそれぞれのペアの間にそれぞれ少なくとも一つのゼロパディング領域を追加させることを特徴とする請求項25に記載のテスト装置。
- 前記プロセッサは、
前記(I)プロセスにおいて、前記ターゲット領域予測ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージそれぞれに対するそれぞれのテスト用スケールヒストグラムを演算させ、前記テスト用スケールヒストグラムを参照することによって、前記テスト用ターゲット物体が位置するものと予測されるスケールプロポーザルに対応する前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域を予測させることを特徴とする請求項24に記載のテスト装置。 - 前記プロセッサは、
前記(I)プロセスにおいて、前記イメージ加工ネットワークをもって、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させるか、前記テストイメージまたはこれに対応するリサイズされたテスト用イメージ上で前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域に対応する一つ以上の領域をクロップした後にリサイズすることにより、前記第1テスト用加工イメージないし前記第nテスト用加工イメージを取得させることを特徴とする請求項24に記載のテスト装置。 - 前記第1テスト用ターゲット領域ないし前記第nテスト用ターゲット領域は、前記テストイメージ内に位置する前記テスト用ターゲット物体のうち互いに異なる多数のテスト用ターゲット物体に対応するか、又は前記テストイメージ及びこれに対応するリサイズされたテスト用イメージ内に位置する少なくとも一つの同一のテスト用ターゲット物体に対応することを特徴とする請求項24に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/254,279 US10387752B1 (en) | 2019-01-22 | 2019-01-22 | Learning method and learning device for object detector with hardware optimization based on CNN for detection at distance or military purpose using image concatenation, and testing method and testing device using the same |
US16/254279 | 2019-01-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119540A JP2020119540A (ja) | 2020-08-06 |
JP6846069B2 true JP6846069B2 (ja) | 2021-03-24 |
Family
ID=67620645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002303A Active JP6846069B2 (ja) | 2019-01-22 | 2020-01-09 | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10387752B1 (ja) |
EP (1) | EP3686781A1 (ja) |
JP (1) | JP6846069B2 (ja) |
KR (1) | KR102337367B1 (ja) |
CN (1) | CN111460877B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018211144A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Making object-level predictions of the future state of a physical system |
US10572770B2 (en) * | 2018-06-15 | 2020-02-25 | Intel Corporation | Tangent convolution for 3D data |
US10915793B2 (en) * | 2018-11-08 | 2021-02-09 | Huawei Technologies Co., Ltd. | Method and system for converting point cloud data for use with 2D convolutional neural networks |
US20210056357A1 (en) * | 2019-08-19 | 2021-02-25 | Board Of Trustees Of Michigan State University | Systems and methods for implementing flexible, input-adaptive deep learning neural networks |
KR102637342B1 (ko) | 2021-03-17 | 2024-02-16 | 삼성전자주식회사 | 대상 객체를 추적하는 방법과 장치 및 전자 장치 |
CN113034456B (zh) * | 2021-03-18 | 2023-07-28 | 北京百度网讯科技有限公司 | 螺栓松动的检测方法、装置、设备以及存储介质 |
KR102618066B1 (ko) | 2023-07-11 | 2023-12-27 | 같다커뮤니케이션 주식회사 | 군인 기반 커뮤니티 애플리케이션에서 자연어 처리 및 이미지 대조를 기반으로 하여 군사 보안을 강화하는 방법, 장치 및 시스템 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9536293B2 (en) * | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
CN106156807B (zh) * | 2015-04-02 | 2020-06-02 | 华中科技大学 | 卷积神经网络模型的训练方法及装置 |
WO2016165060A1 (en) * | 2015-04-14 | 2016-10-20 | Intel Corporation | Skin detection based on online discriminative modeling |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US9881234B2 (en) * | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
JP2018005506A (ja) * | 2016-06-30 | 2018-01-11 | 株式会社東芝 | 画像認識手法評価装置、画像認識手法評価方法、及びプログラム |
US20180039853A1 (en) * | 2016-08-02 | 2018-02-08 | Mitsubishi Electric Research Laboratories, Inc. | Object Detection System and Object Detection Method |
US10354159B2 (en) * | 2016-09-06 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in an image using a contextual multiscale fast region-based convolutional neural network |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
US10846523B2 (en) * | 2016-11-14 | 2020-11-24 | Kodak Alaris Inc. | System and method of character recognition using fully convolutional neural networks with attention |
US10380741B2 (en) * | 2016-12-07 | 2019-08-13 | Samsung Electronics Co., Ltd | System and method for a deep learning machine for object detection |
US10262237B2 (en) * | 2016-12-08 | 2019-04-16 | Intel Corporation | Technologies for improved object detection accuracy with multi-scale representation and training |
CN108303748A (zh) * | 2017-01-12 | 2018-07-20 | 同方威视技术股份有限公司 | 检查设备和检测行李物品中的枪支的方法 |
KR101902883B1 (ko) * | 2017-02-22 | 2018-10-01 | 연세대학교 산학협력단 | 컴퓨터 단층촬영 영상에서 플라크를 분석하기 위한 방법 및 장치 |
US10185878B2 (en) * | 2017-02-28 | 2019-01-22 | Microsoft Technology Licensing, Llc | System and method for person counting in image data |
US10635927B2 (en) * | 2017-03-06 | 2020-04-28 | Honda Motor Co., Ltd. | Systems for performing semantic segmentation and methods thereof |
JP6787196B2 (ja) * | 2017-03-09 | 2020-11-18 | コニカミノルタ株式会社 | 画像認識装置及び画像認識方法 |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
US20180260414A1 (en) * | 2017-03-10 | 2018-09-13 | Xerox Corporation | Query expansion learning with recurrent networks |
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
US10325342B2 (en) * | 2017-04-27 | 2019-06-18 | Apple Inc. | Convolution engine for merging interleaved channel data |
US10460470B2 (en) * | 2017-07-06 | 2019-10-29 | Futurewei Technologies, Inc. | Recognition and reconstruction of objects with partial appearance |
US10503978B2 (en) * | 2017-07-14 | 2019-12-10 | Nec Corporation | Spatio-temporal interaction network for learning object interactions |
KR101880901B1 (ko) * | 2017-08-09 | 2018-07-23 | 펜타시큐리티시스템 주식회사 | 기계 학습 방법 및 장치 |
JP6972757B2 (ja) * | 2017-08-10 | 2021-11-24 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
JP6972756B2 (ja) * | 2017-08-10 | 2021-11-24 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
CN107492099B (zh) * | 2017-08-28 | 2021-08-20 | 京东方科技集团股份有限公司 | 医学图像分析方法、医学图像分析系统以及存储介质 |
US9984325B1 (en) * | 2017-10-04 | 2018-05-29 | StradVision, Inc. | Learning method and learning device for improving performance of CNN by using feature upsampling networks, and testing method and testing device using the same |
US10169679B1 (en) * | 2017-10-13 | 2019-01-01 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
-
2019
- 2019-01-22 US US16/254,279 patent/US10387752B1/en active Active
- 2019-09-27 KR KR1020190119531A patent/KR102337367B1/ko active IP Right Grant
- 2019-12-16 CN CN201911295611.2A patent/CN111460877B/zh active Active
- 2019-12-27 EP EP19219842.2A patent/EP3686781A1/en active Pending
-
2020
- 2020-01-09 JP JP2020002303A patent/JP6846069B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20200091324A (ko) | 2020-07-30 |
CN111460877A (zh) | 2020-07-28 |
JP2020119540A (ja) | 2020-08-06 |
US10387752B1 (en) | 2019-08-20 |
EP3686781A1 (en) | 2020-07-29 |
KR102337367B1 (ko) | 2021-12-10 |
CN111460877B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
US10509987B1 (en) | Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same | |
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
JP6908943B2 (ja) | イメージコンカチネーションと、ターゲット物体予測ネットワークとを利用して、多重カメラ又はサラウンドビューモニタリングに利用される物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6908944B2 (ja) | 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6850046B2 (ja) | 重要業績評価指標のようなユーザ要求事項に適したターゲット物体予測ネットワークを用いた、cnn基盤の変動に強い物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
US10410120B1 (en) | Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same | |
KR20200039547A (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
US10402978B1 (en) | Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN111738206A (zh) | 基于CenterNet的用于无人机巡检的挖掘机检测方法 | |
EP3686807A2 (en) | Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same | |
US10474543B1 (en) | Method and device for economizing computing resources to be used during a process of verification of convolutional parameters using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations | |
KR102464358B1 (ko) | 머신러닝에 기반하여 이미지에 대응되는 공간 정보를 추정하기 위한 방법 및 이를 이용한 공간 추정 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200110 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6846069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |