JP2019075122A - プーリングタイプに対する情報を含むテーブルを作成するための方法、装置及びこれを利用したテスティング方法、テスティング装置 - Google Patents
プーリングタイプに対する情報を含むテーブルを作成するための方法、装置及びこれを利用したテスティング方法、テスティング装置 Download PDFInfo
- Publication number
- JP2019075122A JP2019075122A JP2018194937A JP2018194937A JP2019075122A JP 2019075122 A JP2019075122 A JP 2019075122A JP 2018194937 A JP2018194937 A JP 2018194937A JP 2018194937 A JP2018194937 A JP 2018194937A JP 2019075122 A JP2019075122 A JP 2019075122A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- feature map
- bounding box
- pooling
- table creation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011176 pooling Methods 0.000 title claims abstract description 273
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000012360 testing method Methods 0.000 title claims description 130
- 238000013527 convolutional neural network Methods 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000000875 corresponding effect Effects 0.000 description 67
- 238000010586 diagram Methods 0.000 description 5
- 238000010998 test method Methods 0.000 description 3
- KDCGOANMDULRCW-UHFFFAOYSA-N 7H-purine Chemical compound N1=CNC2=NC=NC2=C1 KDCGOANMDULRCW-UHFFFAOYSA-N 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (26)
- 少なくとも一つのテーブル作成用イメージ内の少なくとも一つの客体のスケール範囲別にプーリングタイプに対する情報を含むテーブルを作成するための方法において、
(a)(i)学習イメージがコンボリューションレイヤに入力されて所定の演算結果少なくとも一つ以上の学習用特徴マップが獲得され、学習用ROI(region−of−interest)領域がRPN(Region Proposal Network)から獲得されると、前記学習装置は、前記学習用ROI領域に対応される前記学習用特徴マップ上の領域を複数のサブ−区域に区分するか区分するように支援するプロセス、(ii)前記学習装置は、(ii−1)前記複数のサブ−区域各々に含まれたすべてのピクセルのうち前記サブ−区域毎に最大値のピクセルを選択するマックスプーリング演算を適用する場合に、前記一つ以上の特徴マップ内の学習用ROIに対応する、一つ以上の領域に対して一つ以上の前記マックスプーリング演算を適用して、学習用第1プーリング済み特徴マップを生成するか生成するように支援し、(ii−2)前記複数のサブ−区域各々に含まれた前記すべてのピクセルのうち前記サブ−区域毎に平均値を獲得する平均プーリング演算を適用する場合に、前記一つ以上の特徴マップ内の前記学習用ROIに対応する、一つ以上の領域に一つ以上の平均プーリングを適用して、学習用第2プーリング済み特徴マップを生成するか生成するように支援するプロセス、(iii)前記学習装置は、(iii−1)第1FC(Fully Connected)レイヤをもって、前記学習用第1プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、第1ロスレイヤをもって、前記学習用第1候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータに対する情報を比較して第1比較データを獲得するようにして、前記第1比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス及び(iii−2)第2FCレイヤをもって、前記学習用第2プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第2候補バウンディングボックスのピクセルデータ情報を獲得するようにし、第2ロスレイヤをもって、前記学習用第2候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータ情報と比較して第2比較データを獲得するようにして、前記第2比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス;を遂行して、前記学習装置の調節されたパラメータが獲得された状態で、テーブル作成装置が、前記調節されたパラメータを備えたCNNの入力として、客体を含むテーブル作成用イメージを獲得するか、他の装置をもって獲得するようにする段階;
(b)前記テーブル作成装置が、前記複数個のコンボリューションレイヤをもって前記テーブル作成用イメージにコンボリューション演算を適用するようにして少なくとも一つのテーブル作成用特徴マップが獲得されるようにし、前記RPNをもって前記テーブル作成用特徴マップに所定の演算を適用してテーブル作成用ROI領域が獲得されるようにする段階;
(c)前記テーブル作成装置は、(c−1)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上のマックスプーリングを適用してテーブル作成用第1プーリング済み特徴マップを生成し、(c−2)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上の平均プーリングを適用してテーブル作成用第2プーリング済み特徴マップを生成し、(c−3)前記第1FCレイヤをもって、前記テーブル作成用第1プーリング済み特徴マップにリグレッション(regression)演算を適用してテーブル作成用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、(c−4)第2FCレイヤをもって、前記テーブル作成用第2プーリング済み特徴マップにリグレッション演算を適用してテーブル作成用第2候補バウンディングボックスのピクセルデータに対する情報を獲得するようにする段階;及び
(d)前記テーブル作成装置は、前記テーブル作成用第1候補バウンディングボックスと第2原本正解イメージ内のバウンディングボックス間の第1類似度及び前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体の前記スケールの各範囲別に各々の最適のプーリングタイプ(type)に対する情報を含むようにテーブルを作成する段階;
を含むことを特徴とする方法。 - 前記(c)段階の(c−1)及び(c−2)プロセスで、
前記テーブル作成装置が、前記一つ以上の特徴マップのうち一つの特定特徴マップ内の、前記テーブル作成用ROIに対応する、ある特定領域にマックスプーリング演算のうち一つを適用して前記テーブル作成用第1プーリング済み特徴マップを生成し、前記一つ以上の特徴マップのうち前記一つの特定特徴マップ内の、前記テーブル作成用ROIに対応する、前記ある特定領域に平均プーリング演算のうち一つを適用して前記テーブル作成用第2プーリング済み特徴マップを生成することを特徴とする請求項1に記載の方法。 - 前記(c)段階の(c−1)及び(c−2)プロセスで、
前記テーブル作成装置が、前記一つ以上の特徴マップのうち多数の特定特徴マップ内の、前記テーブル作成用ROIに対応する、多数の特定領域にマックスプーリング演算を適用して前記テーブル作成用第1プーリング済み特徴マップを生成し、前記一つ以上の特徴マップのうち前記多数の特定特徴マップ内の、前記テーブル作成用ROIに対応する、前記多数の特定領域に平均プーリング演算を適用して前記テーブル作成用第2プーリング済み特徴マップを生成することを特徴とする請求項1に記載の方法。 - 前記(d)段階で、
前記最適のプーリングタイプ各々は、(i)前記多数の特定特徴マップに対応する多数の特定サブ−プーリングタイプまたは(ii)前記多数の特定サブ−プーリングタイプを参照して定義された一つの統合プーリングタイプを含むことを特徴とする請求項3に記載の方法。 - 前記(d)段階で、
前記テーブル装置は、(i)前記テーブル作成用第1候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第1類似度と(ii)前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、(i)前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体のスケールの各範囲、及び(ii)前記客体の各カテゴリ別に、各々の最適のプーリングタイプに対する情報を含むように前記テーブルを作成することを特徴とする請求項1に記載の方法。 - 前記(d)段階で、
前記テーブル作成装置は、前記客体の前記スケールの各範囲別に平均プーリングタイプのカテゴリの数に対するマックスプーリングタイプのカテゴリ数として決定された比率を参照して、前記客体の前記スケールの各範囲別に各々の最適のプーリングタイプに対する情報を含めるように前記テーブルを作成することを特徴とする請求項1に記載の方法。 - 前記テーブル作成装置は、前記客体のカテゴリ別に前記客体のスケールの臨界範囲を指定して管理し、前記臨界範囲は前記第1類似度が前記第2類似度よりも大きいか同じになり始める時の前記客体のスケールの特定範囲を前記臨界範囲に指定してこれを管理することを特徴とする請求項1に記載の方法。
- 前記類似度はテーブル作成用候補バウンディングボックスの領域と第2原本正解イメージのバウンディングボックスの領域の和集合(union)に対する、前記テーブル作成用候補バウンディングボックスの領域と前記第2原本正解イメージのバウンディングボックスの領域の交差集合(intersection)の比率として決定されて、前記類似度は前記第1類似度及び前記第2類似度を含み、前記テーブル作成用候補バウンディングボックスは、前記テーブル作成用第1候補バウンディングボックスと前記テーブル作成用第2候補バウンディングボックスを含むことを特徴とする請求項1に記載の方法。
- 前記客体のスケールは、前記テーブル作成用イメージ内の客体に対応する前記第1及び第2候補バウンディングボックス内に含まれたピクセルデータの個数及び前記第2原本正解イメージのバウンディングボックスに含まれたピクセルデータの個数のうち少なくとも一つを参照して決定されることを特徴とする請求項1に記載の学習方法。
- CNN(Convolutional Neural Network)を含むテスティング装置を用いて一つ以上のテストイメージ上の一つ以上のテスト用客体に対するプーリングタイプの情報を含むテーブルを利用する方法において、
(a)(I)(i)学習イメージがコンボリューションレイヤに入力されて所定の演算結果少なくとも一つ以上の学習用特徴マップが獲得され、前記学習イメージ上で学習用ROI(region−of−interest)領域がRPN(Region Proposal Network)から獲得されると、前記学習装置が、前記学習用ROI領域に対応される前記学習用特徴マップ上の領域を複数のサブ−区域に区分するか区分するように支援するプロセス、(ii)前記学習装置が、(ii−1)前記複数のサブ−区域各々に含まれたすべてのピクセルのうち前記サブ−区域毎に最大値のピクセルを選択するマックスプーリング演算を適用する場合に、前記一つ以上の特徴マップ内の学習用ROIに対応する、一つ以上の領域に対して一つ以上の前記マックスプーリング演算を適用して、学習用第1プーリング済み特徴マップを生成するか生成するように支援し、(ii−2)前記複数のサブ−区域各々に含まれた前記すべてのピクセルのうち前記サブ−区域毎に平均値を獲得する平均プーリング演算を適用する場合に、前記一つ以上の特徴マップ内の前記学習用ROIに対応する、一つ以上の領域に一つ以上の平均プーリングを適用して、学習用第2プーリング済み特徴マップを生成するか生成するように支援するプロセス、(iii)前記学習装置が、(iii−1)第1FC(Fully Connected)レイヤをもって、前記学習用第1プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、第1ロスレイヤをもって、前記学習用第1候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータに対する情報を比較して第1比較データを獲得するようにして、前記第1比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス及び(iii−2)第2FCレイヤをもって、前記学習用第2プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第2候補バウンディングボックスのピクセルデータ情報を獲得するようにし、第2ロスレイヤをもって、前記学習用第2候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータ情報と比較して第2比較データを獲得するようにして、前記第2比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス;を遂行して、前記学習装置の調節されたパラメータが獲得された状態で、テーブル作成装置が、前記調節されたパラメータを備えたCNNの入力として客体を含むテーブル作成用イメージを獲得する段階;(II)前記テーブル作成装置が、前記複数個のコンボリューションレイヤをもって前記テーブル作成用イメージにコンボリューション演算を適用するようにして少なくとも一つのテーブル作成用特徴マップが獲得されるようにし、前記RPNをもって前記テーブル作成用特徴マップに所定の演算を適用してテーブル作成用ROI領域が獲得されるようにする段階;(III)前記テーブル作成装置が、(i)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上のマックスプーリングを適用してテーブル作成用第1プーリング済み特徴マップを生成し、(ii)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上の平均プーリングを適用してテーブル作成用第2プーリング済み特徴マップを生成し、(iii)前記第1FCレイヤをもって、前記テーブル作成用第1プーリング済み特徴マップにリグレッション(regression)演算を適用してテーブル作成用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、(iv)第2FCレイヤをもって、前記テーブル作成用第2プーリング済み特徴マップにリグレッション演算を適用してテーブル作成用第2候補バウンディングボックスのピクセルデータに対する情報を獲得するようにする段階;及び(IV)前記テーブル作成装置が、(i)前記テーブル作成用第1候補バウンディングボックスと第2原本正解イメージ内のバウンディングボックス間の第1類似度及び(ii)前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体の前記スケールの各範囲別に各々の最適のプーリングタイプ(type)に対する情報を含むようにテーブルを作成する段階;を遂行した状態で、前記テスティング装置が前記テストイメージを獲得するか、他の装置をもって獲得するようにする段階;
(b)前記テスティング装置が、前記複数個のコンボリューションレイヤをもって前記テストイメージにコンボリューション演算を適用するようにして少なくとも一つのテスト用特徴マップが獲得されるようにし、前記RPNをもって前記テスト用特徴マップに所定の演算を適用してテスト用ROI領域が獲得されるようにする段階;
(c)前記テスティング装置が、前記マックスプーリングタイプ及び前記平均プーリングタイプのうち、前記テスト用ROIに対応する情報を含む前記テーブルを参照して決定して選択された、特定最適プーリングタイプを利用してテスト用プーリング済み特徴マップを生成する段階;及び
(d)前記テスティング装置が、前記FCレイヤを通じて前記テスト用プーリング済み特徴マップにリグレッション演算を適用してテスト用バウンディングボックスを獲得する段階;
を含む方法。 - 前記テスティング装置は、前記テストイメージにコンボリューション演算を適用した結果互いに異なる大きさを有するテスト用特徴マップが獲得される場合、前記テスト用特徴マップに対応するサブ−プーリングタイプを利用して前記テスト用プーリング済み特徴マップを生成し、ここで前記サブ−プーリングタイプはテスト用客体のスケールに対応する情報を含む前記テーブルを参照に決定されることを特徴とする請求項10に記載の方法。
- 前記(b)段階で、
前記テスティング装置は、前記マックスプーリングタイプまたは前記平均プーリングタイプの中から選択された前記特定最適プーリングタイプを利用して前記テスト用プーリング済み特徴マップを生成し、ここで前記特定最適プーリングタイプは前記テスト用ROIのスケール及び前記テスト用客体のカテゴリに対応する情報を含む前記テーブルを参照に決定されることを特徴とする請求項10に記載の方法。 - 前記(b)段階で、
前記テスト用ROIの前記スケールは前記テスト用ROIの内部に含まれたピクセルデータ個数を参照にして決定されることを特徴とする請求項10に記載の方法。 - 少なくとも一つのテーブル作成用イメージ内の少なくとも一つの客体のスケール範囲別にプーリングタイプに対する情報を含むテーブルを作成するためのテーブル作成装置において、
(i)学習イメージがコンボリューションレイヤに入力されて所定の演算結果少なくとも一つ以上の学習用特徴マップが獲得され、前記学習イメージ上で学習用ROI(region−of−interest)領域がRPN(Region Proposal Network)から獲得されると、前記学習装置が、前記学習用ROI領域に対応される前記学習用特徴マップ上の領域を複数のサブ−区域に区分するか区分するように支援するプロセス、(ii)前記学習装置は、(ii−1)前記複数のサブ−区域各々に含まれたすべてのピクセルのうち前記サブ−区域毎に最大値のピクセルを選択するマックスプーリング演算を適用する場合に、前記一つ以上の特徴マップ内の学習用ROIに対応する、一つ以上の領域に対して一つ以上の前記マックスプーリング演算を適用して、学習用第1プーリング済み特徴マップを生成するか生成するように支援し、(ii−2)前記複数のサブ−区域各々に含まれた前記すべてのピクセルのうち前記サブ−区域毎に平均値を獲得する平均プーリング演算を適用する場合に、前記一つ以上の特徴マップ内の前記学習用ROIに対応する、一つ以上の領域に一つ以上の平均プーリングを適用して、学習用第2プーリング済み特徴マップを生成するか生成するように支援するプロセス、(iii)前記学習装置は、(iii−1)第1FC(Fully Connected)レイヤをもって、前記学習用第1プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、第1ロスレイヤをもって、前記学習用第1候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータに対する情報を比較して第1比較データを獲得するようにして、前記第1比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス及び(iii−2)第2FCレイヤをもって、前記学習用第2プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第2候補バウンディングボックスのピクセルデータ情報を獲得するようにし、第2ロスレイヤをもって、前記学習用第2候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータ情報と比較して第2比較データを獲得するようにして、前記第2比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス;を遂行して、前記学習装置の調節されたパラメータが獲得された状態で、前記調節されたパラメータを備えたCNNの入力として、客体を含むテーブル作成用イメージを獲得するか、他の装置をもって獲得するようにする通信部;
(I)前記複数個のコンボリューションレイヤをもって前記テーブル作成用イメージにコンボリューション演算を適用するようにして少なくとも一つのテーブル作成用特徴マップが獲得されるようにし、前記RPNをもって前記テーブル作成用特徴マップに所定の演算を適用してテーブル作成用ROI領域が獲得されるようにするプロセス;(II)(II−1)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上のマックスプーリングを適用してテーブル作成用第1プーリング済み特徴マップを生成し、(II−2)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上の平均プーリングを適用してテーブル作成用第2プーリング済み特徴マップを生成し、(II−3)前記第1FCレイヤをもって、前記テーブル作成用第1プーリング済み特徴マップにリグレッション(regression)演算を適用してテーブル作成用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、(II−4)第2FCレイヤをもって、前記テーブル作成用第2プーリング済み特徴マップにリグレッション演算を適用してテーブル作成用第2候補バウンディングボックスのピクセルデータに対する情報を獲得するようにするプロセス;及び(III)前記テーブル作成用第1候補バウンディングボックスと第2原本正解イメージ内のバウンディングボックス間の第1類似度及び前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体の前記スケールの各範囲別に各々の最適のプーリングタイプ(type)に対する情報を含むようにテーブルを作成するプロセス;を含むプロセッサ;
を含むことを特徴とする装置。 - 前記(II−1)及び(II−2)プロセスで、
前記プロセッサが、前記一つ以上の特徴マップのうち一つの特定特徴マップ内の、前記テーブル作成用ROIに対応する、ある特定領域にマックスプーリング演算のうち一つを適用して前記テーブル作成用第1プーリング済み特徴マップを生成し、前記一つ以上の特徴マップのうち前記一つの特定特徴マップ内の、前記テーブル作成用ROIに対応する、前記ある特定領域に平均プーリング演算のうち一つを適用して前記テーブル作成用第2プーリング済み特徴マップを生成することを特徴とする請求項14に記載の装置。 - 前記(II−1)及び(II−2)プロセスで、
前記プロセッサが、前記一つ以上の特徴マップのうち多数の特定特徴マップ内の、前記テーブル作成用ROIに対応する、多数の特定領域にマックスプーリング演算を適用して前記テーブル作成用第1プーリング済み特徴マップを生成し、前記一つ以上の特徴マップのうち前記多数の特定特徴マップ内の、前記テーブル作成用ROIに対応する、前記多数の特定領域に平均プーリング演算を適用して前記テーブル作成用第2プーリング済み特徴マップを生成することを特徴とする請求項14に記載の装置。 - 前記(III)プロセスで、
前記最適のプーリングタイプ各々は、(i)前記多数の特定特徴マップに対応する多数の特定サブ−プーリングタイプまたは(ii)前記多数の特定サブ−プーリングタイプを参照して定義された一つの統合プーリングタイプを含むことを特徴とする請求項16に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、(i)前記テーブル作成用第1候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第1類似度と(ii)前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、(i)前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体のスケールの各範囲、及び(ii)前記客体の各カテゴリ別に、各々の最適のプーリングタイプに対する情報を含むように前記テーブルを作成することを特徴とする請求項14に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、前記客体の前記スケールの各範囲別に平均プーリングタイプのカテゴリの数に対するマックスプーリングタイプのカテゴリ数として決定された比率を参照して前記客体の前記スケールの各範囲別に各々の最適のプーリングタイプに対する情報を含めるように前記テーブルを作成することを特徴とする請求項14に記載の装置。 - 前記プロセッサは、前記客体のカテゴリ別に前記客体のスケールの臨界範囲を指定して管理し、前記臨界範囲は前記第1類似度が前記第2類似度よりも大きいか同じになり始める時の前記客体のスケールの特定範囲を前記臨界範囲に指定してこれを管理することを特徴とする請求項14に記載の装置。
- 前記類似度はテーブル作成用候補バウンディングボックスの領域と第2原本正解イメージのバウンディングボックスの領域の和集合(union)に対する前記テーブル作成用候補バウンディングボックスの領域と前記第2原本正解イメージのバウンディングボックスの領域の交差集合(intersection)の比率として決定されて、前記類似度は前記第1類似度及び前記第2類似度を含み、前記テーブル作成用候補バウンディングボックスは、前記テーブル作成用第1候補バウンディングボックスと前記テーブル作成用第2候補バウンディングボックスを含むことを特徴とする請求項14に記載の装置。
- 前記客体のスケールは、前記テーブル作成用イメージ内の客体に対応する前記第1及び第2候補バウンディングボックス内に含まれたピクセルデータの個数及び前記第2原本正解イメージのバウンディングボックスに含まれたピクセルデータの個数のうち少なくとも一つを参照して決定されることを特徴とする請求項14に記載の学習装置。
- 一つ以上のテストイメージ上の一つ以上のテスト用客体に対するプーリングタイプの情報を含むテーブルを利用するテスティング装置において、
(I)(i)学習イメージがコンボリューションレイヤに入力されて所定の演算結果少なくとも一つ以上の学習用特徴マップが獲得され、前記学習イメージ上で学習用ROI(region−of−interest)領域がRPN(Region Proposal Network)から獲得されると、前記学習装置が、前記学習用ROI領域に対応される前記学習用特徴マップ上の領域を複数のサブ−区域に区分するか区分するように支援するプロセス、(ii)前記学習装置が、(ii−1)前記複数のサブ−区域各々に含まれたすべてのピクセルのうち前記サブ−区域毎に最大値のピクセルを選択するマックスプーリング演算を適用する場合に、前記一つ以上の特徴マップ内の学習用ROIに対応する、一つ以上の領域に対して一つ以上の前記マックスプーリング演算を適用して、学習用第1プーリング済み特徴マップを生成するか生成するように支援し、(ii−2)前記複数のサブ−区域各々に含まれた前記すべてのピクセルのうち前記サブ−区域毎に平均値を獲得する平均プーリング演算を適用する場合に、前記一つ以上の特徴マップ内の前記学習用ROIに対応する、一つ以上の領域に一つ以上の平均プーリングを適用して、学習用第2プーリング済み特徴マップを生成するか生成するように支援するプロセス、(iii)前記学習装置が、(iii−1)第1FC(Fully Connected)レイヤをもって、前記学習用第1プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、第1ロスレイヤをもって、前記学習用第1候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータに対する情報を比較して第1比較データを獲得するようにして、前記第1比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス及び(iii−2)第2FCレイヤをもって、前記学習用第2プーリング済み特徴マップにリグレッション(regression)演算を適用して学習用第2候補バウンディングボックスのピクセルデータ情報を獲得するようにし、第2ロスレイヤをもって、前記学習用第2候補バウンディングボックスのピクセルデータに対する情報と第1原本正解イメージのバウンディングボックスのピクセルデータ情報と比較して第2比較データを獲得するようにして、前記第2比較データを利用してバックプロパゲーションを遂行して前記CNNの少なくとも一つのパラメータに対して調節をするプロセス;を遂行して、前記学習装置の調節されたパラメータが獲得された状態で、テーブル作成装置が、前記調節されたパラメータを備えたCNNの入力として客体を含むテーブル作成用イメージを獲得する段階;(II)前記テーブル作成装置が、前記複数個のコンボリューションレイヤをもって前記テーブル作成用イメージにコンボリューション演算を適用するようにして少なくとも一つのテーブル作成用特徴マップが獲得されるようにし、前記RPNをもって前記テーブル作成用特徴マップに所定の演算を適用してテーブル作成用ROI領域が獲得されるようにする段階;(III)前記テーブル作成装置が、(i)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上のマックスプーリングを適用してテーブル作成用第1プーリング済み特徴マップを生成し、(ii)前記一つ以上の特徴マップで、前記テーブル作成用ROIに対応する、一つ以上の領域に対して一つ以上の平均プーリングを適用してテーブル作成用第2プーリング済み特徴マップを生成し、(iii)前記第1FCレイヤをもって、前記テーブル作成用第1プーリング済み特徴マップにリグレッション(regression)演算を適用してテーブル作成用第1候補バウンディングボックスのピクセルデータに対する情報を獲得するようにし、(iv)第2FCレイヤをもって、前記テーブル作成用第2プーリング済み特徴マップにリグレッション演算を適用してテーブル作成用第2候補バウンディングボックスのピクセルデータに対する情報を獲得するようにする段階;及び(IV)前記テーブル作成装置が、(i)前記テーブル作成用第1候補バウンディングボックスと第2原本正解イメージ内のバウンディングボックス間の第1類似度及び(ii)前記テーブル作成用第2候補バウンディングボックスと前記第2原本正解イメージ内のバウンディングボックス間の第2類似度を比較して、前記第2原本正解イメージ内の客体または前記テーブル作成用イメージ内の客体の前記スケールの各範囲別に各々の最適のプーリングタイプ(type)に対する情報を含むようにテーブルを作成する段階;を遂行した状態で、前記テストイメージを獲得するか、他の装置をもって獲得するようにする通信部;及び
(AA)前記複数個のコンボリューションレイヤをもって前記テストイメージにコンボリューション演算を適用するようにして少なくとも一つのテスト用特徴マップが獲得されるようにし、前記RPNをもって前記テスト用特徴マップに所定の演算を適用してテスト用ROI領域が獲得されるようにするプロセス;(BB)前記マックスプーリングタイプ及び前記平均プーリングタイプのうち、前記テスト用ROIに対応する情報を含む前記テーブルを参照して決定して選択された、特定最適プーリングタイプを利用してテスト用プーリング済み特徴マップを生成するプロセス;及び(CC)前記FCレイヤを通じて前記テスト用プーリング済み特徴マップにリグレッション演算を適用してテスト用バウンディングボックスを獲得するプロセス;を遂行するプロセッサ;
を含む装置。 - 前記プロセッサは、前記テストイメージにコンボリューション演算を適用した結果互いに異なる大きさを有するテスト用特徴マップが獲得される場合、前記テスト用特徴マップに対応するサブ−プーリングタイプを利用して前記テスト用プーリング済み特徴マップを生成し、ここで前記サブ−プーリングタイプはテスト用客体のスケールに対応する情報を含む前記テーブルを参照に決定されることを特徴とする請求項23に記載の装置。
- 前記(AA)プロセスで、
前記プロセッサは、前記マックスプーリングタイプまたは前記平均プーリングタイプの中から選択された前記特定最適プーリングタイプを利用して前記テスト用プーリング済み特徴マップを生成し、ここで前記特定最適プーリングタイプは前記テスト用ROIのスケール及び前記テスト用客体のカテゴリに対応する情報を含む前記テーブルを参照に決定されることを特徴とする請求項23に記載の装置。 - 前記(AA)プロセスで、
前記テスト用ROIの前記スケールは前記テスト用ROIの内部に含まれたピクセルデータ個数を参照にして決定されることを特徴とする請求項23に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/786,680 US9953437B1 (en) | 2017-10-18 | 2017-10-18 | Method and device for constructing a table including information on a pooling type and testing method and testing device using the same |
US15/786,680 | 2017-10-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075122A true JP2019075122A (ja) | 2019-05-16 |
JP6707608B2 JP6707608B2 (ja) | 2020-06-10 |
Family
ID=61952390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018194937A Active JP6707608B2 (ja) | 2017-10-18 | 2018-10-16 | プーリングタイプに対する情報を含むテーブルを作成するための方法、装置及びこれを利用したテスティング方法、テスティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9953437B1 (ja) |
EP (1) | EP3474191A1 (ja) |
JP (1) | JP6707608B2 (ja) |
KR (1) | KR102114357B1 (ja) |
CN (1) | CN109685199B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022000775A (ja) * | 2021-03-05 | 2022-01-04 | アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッドApollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | 交通流監視測定システムのテスト方法、装置及び機器 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706267B2 (en) * | 2018-01-12 | 2020-07-07 | Qualcomm Incorporated | Compact models for object recognition |
DE102018212049A1 (de) * | 2018-07-19 | 2020-01-23 | Conti Temic Microelectronic Gmbh | Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs |
US10325179B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same |
US10445611B1 (en) * | 2019-01-25 | 2019-10-15 | StradVision, Inc. | Method for detecting pseudo-3D bounding box to be used for military purpose, smart phone or virtual driving based-on CNN capable of converting modes according to conditions of objects and device using the same |
US10402686B1 (en) * | 2019-01-25 | 2019-09-03 | StradVision, Inc. | Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same |
US10713815B1 (en) * | 2019-01-31 | 2020-07-14 | StradVision, Inc. | Method and device for supporting administrators to processes of object detectors to provide logical driving |
US10817777B2 (en) * | 2019-01-31 | 2020-10-27 | StradVision, Inc. | Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same |
US10650279B1 (en) * | 2019-01-31 | 2020-05-12 | StradVision, Inc. | Learning method and learning device for heterogeneous sensor fusion by using merging network which learns non-maximum suppression |
CN110490813B (zh) * | 2019-07-05 | 2021-12-17 | 特斯联(北京)科技有限公司 | 卷积神经网络的特征图增强方法、装置、设备及介质 |
CN111127587B (zh) * | 2019-12-16 | 2023-06-23 | 杭州电子科技大学 | 一种基于对抗生成网络的无参考图像质量地图生成方法 |
CN111339884B (zh) * | 2020-02-19 | 2023-06-06 | 浙江大华技术股份有限公司 | 图像识别方法以及相关设备、装置 |
US11854239B2 (en) * | 2021-01-07 | 2023-12-26 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method, and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016155564A1 (zh) * | 2015-04-02 | 2016-10-06 | 腾讯科技(深圳)有限公司 | 卷积神经网络模型的训练方法及装置 |
WO2017079522A1 (en) * | 2015-11-04 | 2017-05-11 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8467607B1 (en) * | 2011-11-21 | 2013-06-18 | Google Inc. | Segmentation-based feature pooling for object models |
CN104217208B (zh) * | 2013-06-03 | 2018-01-16 | 株式会社理光 | 目标检测方法和装置 |
US20150104102A1 (en) | 2013-10-11 | 2015-04-16 | Universidade De Coimbra | Semantic segmentation method with second-order pooling |
CN104504743B (zh) * | 2014-12-30 | 2017-10-24 | 深圳先进技术研究院 | 重建内部感兴趣区域图像的方法及系统 |
US9286524B1 (en) | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
US20170124409A1 (en) | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
US10002313B2 (en) * | 2015-12-15 | 2018-06-19 | Sighthound, Inc. | Deeply learned convolutional neural networks (CNNS) for object localization and classification |
CN107229904B (zh) * | 2017-04-24 | 2020-11-24 | 东北大学 | 一种基于深度学习的目标检测与识别方法 |
-
2017
- 2017-10-18 US US15/786,680 patent/US9953437B1/en active Active
-
2018
- 2018-09-05 EP EP18192810.2A patent/EP3474191A1/en active Pending
- 2018-10-10 KR KR1020180120397A patent/KR102114357B1/ko active IP Right Grant
- 2018-10-16 JP JP2018194937A patent/JP6707608B2/ja active Active
- 2018-10-18 CN CN201811217692.XA patent/CN109685199B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016155564A1 (zh) * | 2015-04-02 | 2016-10-06 | 腾讯科技(深圳)有限公司 | 卷积神经网络模型的训练方法及装置 |
WO2017079522A1 (en) * | 2015-11-04 | 2017-05-11 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
Non-Patent Citations (1)
Title |
---|
Y-LAN BOUREAU, FRANCIS BACH, YANN LECUN AND JEAN PONCE: "Learning Mid-Level Features For Recognition", 2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6019045988, 18 June 2010 (2010-06-18), pages 2559 - 2566, XP031725792, ISSN: 0004162207 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022000775A (ja) * | 2021-03-05 | 2022-01-04 | アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッドApollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | 交通流監視測定システムのテスト方法、装置及び機器 |
JP7348243B2 (ja) | 2021-03-05 | 2023-09-20 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 交通流監視測定システムのテスト方法、装置及び機器 |
Also Published As
Publication number | Publication date |
---|---|
JP6707608B2 (ja) | 2020-06-10 |
EP3474191A1 (en) | 2019-04-24 |
KR20190043468A (ko) | 2019-04-26 |
CN109685199A (zh) | 2019-04-26 |
US9953437B1 (en) | 2018-04-24 |
CN109685199B (zh) | 2023-07-28 |
KR102114357B1 (ko) | 2020-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019075122A (ja) | プーリングタイプに対する情報を含むテーブルを作成するための方法、装置及びこれを利用したテスティング方法、テスティング装置 | |
KR102229328B1 (ko) | 로스 어그멘테이션을 이용하여 cnn의 파라미터를 조정하기 위한 학습 방법, 학습 장치 및 이를 이용한 테스팅 방법, 테스팅 장치 | |
JP6720268B2 (ja) | マルチスケール特徴マップを利用してcnnのパラメータを調節するための学習方法、学習装置及びこれを利用したテスティング方法、テスティング装置 | |
JP6441980B2 (ja) | 教師画像を生成する方法、コンピュータおよびプログラム | |
US9946960B1 (en) | Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same | |
JP6720263B2 (ja) | 回帰分析により2dバウンディングボックスからスード(pseudo)−3dボックスを獲得する方法及びこれを利用した学習装置及びテスト装置 | |
JP2020126614A (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
WO2017096758A1 (zh) | 图像分类方法、电子设备和存储介质 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
US11449706B2 (en) | Information processing method and information processing system | |
JP2020038663A (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP2020119540A (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
KR20200095330A (ko) | 세그먼테이션 스코어 맵 및 클러스터링 맵을 이용하여 자율 주행 차량의 주행 경로를 계획하기 위해 차선을 검출하는 포스트 프로세싱 방법 및 장치 | |
JP2020119529A (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
TWI701608B (zh) | 用於圖片匹配定位的神經網路系統、方法及裝置 | |
KR20200027888A (ko) | 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200091792A (ko) | 하드웨어 최적화에 사용되는 이미지 인식을 위한 1x1 컨벌루션을 이용한 CNN 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
KR101853237B1 (ko) | 딥 러닝을 이용한 3차원 기하 디노이징 방법 및 그 장치 | |
WO2020047466A1 (en) | Human-assisted machine learning through geometric manipulation and refinement | |
CN110298402A (zh) | 一种小目标检测性能优化方法 | |
US11703350B2 (en) | System and method for automatically annotating a map | |
CN111027551B (zh) | 图像处理方法、设备和介质 | |
CN116468702A (zh) | 黄褐斑评估方法、装置、电子设备及计算机可读存储介质 | |
CN113343987B (zh) | 文本检测处理方法、装置、电子设备及存储介质 | |
WO2020108785A1 (en) | Method and device for training a neural network to specify landmarks on 2d and 3d images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6707608 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |