JP2020119552A - テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 - Google Patents
テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 Download PDFInfo
- Publication number
- JP2020119552A JP2020119552A JP2020004238A JP2020004238A JP2020119552A JP 2020119552 A JP2020119552 A JP 2020119552A JP 2020004238 A JP2020004238 A JP 2020004238A JP 2020004238 A JP2020004238 A JP 2020004238A JP 2020119552 A JP2020119552 A JP 2020119552A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- computing device
- test pattern
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims abstract description 106
- 230000007547 defect Effects 0.000 title description 3
- 238000012795 verification Methods 0.000 claims abstract description 84
- 238000013528 artificial neural network Methods 0.000 claims abstract description 64
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000003780 insertion Methods 0.000 claims abstract description 12
- 230000037431 insertion Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims 1
- 238000010200 validation analysis Methods 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1476—Error detection or correction of the data by redundancy in operation in neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置{METHOD AND DEVICE FOR ECONOMIZING COMPUTING RESOURCES TO BE USED DURING A PROCESS OF VERIFICATION OF CONVOLUTIONAL PARAMETERS USING TEST PATTERN TO ENHANCE FAULT TOLERANCE AND FLUCTUATION ROBUSTNESS IN EXTREME SITUATIONS}に関する。
Claims (24)
- 少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、
(a)コンピューティング装置が、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させる段階;
(b)前記コンピューティング装置が、前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより、少なくとも一つの検証用入力を生成させる段階;
(c)前記コンピューティング装置が、前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させる段階;及び、
(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させる段階;
を含むことを特徴とする方法。 - 前記(a)段階は、
前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とする請求項1に記載の方法。 - 前記(a)段階は、
前記コンピューティング装置が、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、
前記コンピューティング装置が、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、
前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とする請求項2に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように前記第tイメージに前記テストパターンを挿入させ、
前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とする請求項1に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とする請求項4に記載の方法。 - 前記(d)段階は、
前記コンピューティング装置が、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、
前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記コンピューティング装置が、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とする請求項1に記載の方法。 - 前記(a)段階以前に、
前記コンピューティング装置のセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とする請求項1に記載の方法。 - 前記(c)段階以後に、
(e)前記コンピューティング装置が、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させる段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とする請求項8に記載の方法。
- 少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、
(a)コンピューティング装置が、前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させる段階;
(b)前記コンピューティング装置が、少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させる段階;
(c)前記コンピューティング装置が、前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させる段階;及び
(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値及び前記コンボリューションユニットにより前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値を参照して、前記コンボリューションユニットの前記無欠性を検証させる段階;
を含むことを特徴とする方法。 - 前記(c)段階以後に、
(e)前記コンピューティング装置が、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させる段階;
をさらに含むことを特徴とする請求項10に記載の方法。 - 前記(b)段階は、
少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とする請求項10に記載の方法。 - 少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、
各インストラクションを格納する少なくとも一つのメモリと、
(I)映像の(t−i2)フレーム及び(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させるプロセス;(II)前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより少なくとも一つの検証用入力を生成させるプロセス;(III)前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするコンピューティング装置。 - 前記(I)プロセスは、
前記プロセッサが、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とする請求項13に記載のコンピューティング装置。 - 前記(I)プロセスは、
前記プロセッサが、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と、(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、前記プロセッサが、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とする請求項14に記載のコンピューティング装置。 - 前記(II)プロセスは、
前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように、前記第tイメージに前記テストパターンを挿入させ、前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とする請求項13に記載のコンピューティング装置。 - 前記(II)プロセスは、
前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とする請求項16に記載のコンピューティング装置。 - 前記(IV)プロセスは、
前記プロセッサが、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記プロセッサが、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とする請求項13に記載のコンピューティング装置。 - 前記(I)プロセス以前に、
前記プロセッサのセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とする請求項13に記載のコンピューティング装置。 - 前記(III)プロセス以後に、
(V)前記プロセッサが、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させるプロセス;をさらに遂行することを特徴とする請求項13に記載のコンピューティング装置。 - 前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記プロセスが、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とする請求項20に記載のコンピューティング装置。
- 少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、
各インストラクションを格納する少なくとも一つのメモリと、
(I)前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させるプロセス;(II)少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させるプロセス;(III)前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値と、前記コンボリューションユニットによって前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値とを参照して、前記コンボリューションユニットの前記無欠性を検証させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするコンピューティング装置。 - 前記(III)プロセス以後に、
(V)前記プロセッサが、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させるプロセス;をさらに遂行することを特徴とする請求項22に記載のコンピューティング装置。 - 前記(II)プロセスは、
少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とする請求項22に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/258850 | 2019-01-28 | ||
US16/258,850 US10474543B1 (en) | 2019-01-28 | 2019-01-28 | Method and device for economizing computing resources to be used during a process of verification of convolutional parameters using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119552A true JP2020119552A (ja) | 2020-08-06 |
JP6840412B2 JP6840412B2 (ja) | 2021-03-10 |
Family
ID=68466251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004238A Active JP6840412B2 (ja) | 2019-01-28 | 2020-01-15 | テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10474543B1 (ja) |
EP (1) | EP3731143B1 (ja) |
JP (1) | JP6840412B2 (ja) |
KR (1) | KR102338772B1 (ja) |
CN (1) | CN111488787B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020202632A1 (de) * | 2020-03-02 | 2021-09-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Inferenzberechnung für neuronale Netzwerke mit Schutz gegen Speicherfehler |
CN111475321B (zh) * | 2020-05-08 | 2024-04-26 | 中国人民解放军国防科技大学 | 一种基于迭代抽象分析的神经网络安全性质验证方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8126197B2 (en) * | 2007-11-29 | 2012-02-28 | Certifi-Media Inc. | Method for image quality assessment using quality vectors |
JP2009182695A (ja) * | 2008-01-30 | 2009-08-13 | Duaxes Corp | データベース検査装置 |
JP2014062943A (ja) * | 2012-09-20 | 2014-04-10 | Seiko Epson Corp | 検査回路、表示装置、電子機器、電子時計および表示装置の検査方法 |
US10249035B2 (en) * | 2013-03-29 | 2019-04-02 | Nima Labs, Inc. | System and method for detecting target substances |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
US10943148B2 (en) * | 2016-12-02 | 2021-03-09 | Apple Inc. | Inspection neural network for assessing neural network reliability |
US10402688B2 (en) * | 2016-12-07 | 2019-09-03 | Kla-Tencor Corporation | Data augmentation for convolutional neural network-based defect inspection |
US10108850B1 (en) * | 2017-04-24 | 2018-10-23 | Intel Corporation | Recognition, reidentification and security enhancements using autonomous machines |
CN108256562B (zh) * | 2018-01-09 | 2022-04-15 | 深圳大学 | 基于弱监督时空级联神经网络的显著目标检测方法及系统 |
CN108846440B (zh) * | 2018-06-20 | 2023-06-02 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
-
2019
- 2019-01-28 US US16/258,850 patent/US10474543B1/en active Active
- 2019-11-15 KR KR1020190147113A patent/KR102338772B1/ko active IP Right Grant
-
2020
- 2020-01-06 CN CN202010010267.4A patent/CN111488787B/zh active Active
- 2020-01-14 EP EP20151765.3A patent/EP3731143B1/en active Active
- 2020-01-15 JP JP2020004238A patent/JP6840412B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR102338772B1 (ko) | 2021-12-15 |
CN111488787A (zh) | 2020-08-04 |
EP3731143B1 (en) | 2021-12-15 |
CN111488787B (zh) | 2023-11-24 |
KR20200093420A (ko) | 2020-08-05 |
JP6840412B2 (ja) | 2021-03-10 |
US10474543B1 (en) | 2019-11-12 |
EP3731143A1 (en) | 2020-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102373456B1 (ko) | 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN111489403B (zh) | 利用gan来生成虚拟特征图的方法及装置 | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200027428A (ko) | 에지 이미지를 이용하여 객체를 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6908944B2 (ja) | 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
KR102362744B1 (ko) | 딥 뉴럴 네트워크(deep neural network) 기반의 다중 패치 조합(multiple patch combination)을 이용하여 얼굴을 인식하고, 극도의 상황에서 결함 허용 능력 및 흔들림에 강인한 성질을 향상시키는 방법 | |
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
KR20200027427A (ko) | 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
CN111462193B (zh) | 用于多摄像机或环绕视图监控的对象检测方法及装置 | |
US10402978B1 (en) | Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same | |
KR102320999B1 (ko) | 폴트 톨러런스 및 플럭츄에이션 로버스트를 위한 복수의 뉴럴 네트워크를 사용하여 흔들리는 카메라로 인해 생성된 비디오에서 지터링을 제거하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102252155B1 (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102338768B1 (ko) | 기능적 안전성을 위해 극한 상황에서 폴트 톨러런스 및 플럭츄에이션 로버스트를 향상시키도록 테스트 패턴을 이용해 cnn의 파라미터의 무결성을 검증하기 위한 방법 및 장치 | |
JP6840412B2 (ja) | テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 | |
KR102309712B1 (ko) | 객체의 조건에 따라 모드를 전환할 수 있는 CNN 기반으로 군사 목적, 스마트폰 또는 가상 주행에 사용되는 수도(Pseudo)-3D 바운딩 박스를 검출하는 방법 및 이를 이용한 장치 | |
JP2020119537A (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
US11869212B1 (en) | Method for training video object detection model using training dataset and learning device using the same | |
EP3722999B1 (en) | Method and device for verifying integrity of parameters of cnn by using test pattern | |
KR102326278B1 (ko) | 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치 | |
US11875527B1 (en) | Descriptor generation and point cloud fusion | |
KR102313605B1 (ko) | 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6840412 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |