JP2020119552A - テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 - Google Patents

テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 Download PDF

Info

Publication number
JP2020119552A
JP2020119552A JP2020004238A JP2020004238A JP2020119552A JP 2020119552 A JP2020119552 A JP 2020119552A JP 2020004238 A JP2020004238 A JP 2020004238A JP 2020004238 A JP2020004238 A JP 2020004238A JP 2020119552 A JP2020119552 A JP 2020119552A
Authority
JP
Japan
Prior art keywords
image
background
computing device
test pattern
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020004238A
Other languages
English (en)
Other versions
JP6840412B2 (ja
Inventor
金桂賢
Kye-Hyeon Kim
金鎔重
Yongjoong Kim
金寅洙
Insu Kim
金鶴京
Hak-Kyoung Kim
南雲鉉
Woonhyun Nam
夫碩▲くん▼
Sukhoon Boo
成明哲
Myungchul Sung
呂東勳
Donghun Yeo
柳宇宙
Wooju Ryu
張泰雄
Taewoong Jang
鄭景中
Kyungjoong Jeong
諸泓模
Hongmo Je
趙浩辰
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020119552A publication Critical patent/JP2020119552A/ja
Application granted granted Critical
Publication of JP6840412B2 publication Critical patent/JP6840412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1476Error detection or correction of the data by redundancy in operation in neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約する。【解決手段】映像の第(t−i2)フレーム及び第(t−i1)フレームに対応する第(t−2)イメージ及び第(t−1)イメージに関する情報が取得されると、背景予測ユニットをもって、第(t−2)イメージ及び第(t−1)イメージに関する情報を参照し、第tイメージの第t背景予測情報を生成させ、第tイメージが取得されると、パターン挿入ユニットをもって、第t背景予測情報を参照して、第tイメージにテストパターンを挿入することにより検証用入力を生成させ、ニューラルネットワークをもって、検証用入力にコンボリューション演算を適用して検証用出力を生成させ、検証ユニットをもって、検証用出力及びテストパターンに対応する参照用出力を参照してニューラルネットワークの無欠性を判断させる。【選択図】図2

Description

本発明は、テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約することができる方法及び装置に関する。より詳細には、少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、(a)コンピューティング装置が、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させる段階:(b)前記コンピューティング装置が、前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより、少なくとも一つの検証用入力を生成させる段階;(c)前記コンピューティング装置が、前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させる段階;及び(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させる段階;を含むことを特徴とする方法及び装置に関する。
ディープコンボリューションニューラルネットワーク(Deep Convolution Neural Networks;Deep CNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解決するために90年代にも使用されていたが、近年になって初めて機械学習(Machine Learning)分野で広く使用されるようになった。例えば、CNNは、2012年にイメージ認識コンテスト(ImageNet Large Scale Visual Recognition Challenge)で他の競争相手に勝って優勝を収めた。その後、CNNは、機械学習分野で非常に有用なツールとして使用されるようになった。
CNNは時として自動車の自律走行分野で使用されているが、これは主に自動車に取り付けられたカメラを通じて取得されたイメージを分析することで障害物を検出し、自由空間を検出するなどの機能を遂行して安全に車両が走行し得るようにする。
十分な学習過程を経て学習した自律走行用CNNを実際に自律走行に投入する場合、非常に重要に考えるべきことは自律走行用CNNのセキュリティである。自律走行車両は速い速度で動き、大きな質量を有するだけに、誤って走行した場合の危険性が高いからである。具体的に、もし悪意を持ったハッカーが自主走行用CNNをハッキングして自律走行用CNNに含まれたパラメータを変調すれば、自律走行用車両を意図的にテロに利用したり自律走行車両に搭乗した人を攻撃することができるからである。
したがって、テスト過程でCNNのパラメータが、CNNが最初の学習を完了したときと同じパラメータを保持しているかを検証する方法が必要であるが、これまでの研究は自律走行用CNNが車両をいかにうまく動かすことができるかについて主に焦点が当てられていたのであり、このようにセキュリティを維持する方法についてはあまり研究されていないのが現実である。
また、他の分野に関する従来技術を応用してCNNのセキュリティを維持する監視システムを作るとしても、CNNの演算過程以外のさらなる演算過程が多いため、CNNの本来機能の性能低下を招きかねない短所がある。
本発明は上述した問題点を解決することを目的とする。
本発明は、少なくとも一つのテストパターンを使用してCNNの一つ以上のパラメータの無欠性を検証し、その検証過程に所要されるコンピューティングリソースを節約することができる方法を提供することにより、CNNが本来の機能を十分に遂行しつつも、そのパラメータの無欠性が検証され得るようにする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、(a)コンピューティング装置が、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させる段階;(b)前記コンピューティング装置が、前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより、少なくとも一つの検証用入力を生成させる段階;(c)前記コンピューティング装置が、前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させる段階;及び(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させる段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階は、前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とする方法が提供される。
一実施例において、前記(a)段階は、前記コンピューティング装置が、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と、(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、前記コンピューティング装置が、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように前記第tイメージに前記テストパターンを挿入させ、前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とする方法が提供される。
一実施例において、前記(d)段階は、前記コンピューティング装置が、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記コンピューティング装置が、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とする方法が提供される。
一実施例において、前記(a)段階以前に、前記コンピューティング装置のセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とする方法が提供される。
一実施例において、前記(c)段階以後に、(e)前記コンピューティング装置が、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させる段階;をさらに含むことを特徴とする方法が提供される。
一実施例において、前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とする方法が提供される。
本発明の他の態様によると、少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、(a)コンピューティング装置が、前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させる段階;(b)前記コンピューティング装置が、少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させる段階;(c)前記コンピューティング装置が、前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させる段階;及び(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値及び前記コンボリューションユニットにより前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値を参照して、前記コンボリューションユニットの前記無欠性を検証させる段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(c)段階以後に、(e)前記コンピューティング装置が、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させる段階;をさらに含むことを特徴とする方法が提供される。
一実施例において、前記(b)段階は、少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とする方法が提供される。
本発明のまた他の態様によると、少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、各インストラクションを格納する少なくとも一つのメモリと、(I)映像の(t−i2)フレーム及び(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させるプロセス;(II)前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより少なくとも一つの検証用入力を生成させるプロセス;(III)前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とするコンピューティング装置が提供される。
一実施例において、前記(I)プロセスは、前記プロセッサが、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(I)プロセスは、前記プロセッサが、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と、(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、前記プロセッサが、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように、前記第tイメージに前記テストパターンを挿入させ、前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(II)プロセスは、前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(IV)プロセスは、前記プロセッサが、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記プロセッサが、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(I)プロセス以前に、前記プロセッサのセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(III)プロセス以後に、(V)前記プロセッサが、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させるプロセス;をさらに遂行することを特徴とするコンピューティング装置が提供される。
一実施例において、前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記プロセスが、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とするコンピューティング装置が提供される。
本発明のまた他の態様によると、少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、各インストラクションを格納する少なくとも一つのメモリと、(I)前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させるプロセス;(II)少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させるプロセス;(III)前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値と、前記コンボリューションユニットによって前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値とを参照して、前記コンボリューションユニットの前記無欠性を検証させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とするコンピューティング装置が提供される。
一実施例において、前記(III)プロセス以後に、(V)前記プロセッサが、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させるプロセス;をさらに遂行することを特徴とするコンピューティング装置が提供される。
一実施例において、前記(II)プロセスは、少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とするコンピューティング装置が提供される。
本発明は、テストパターンを使用してニューラルネットワークのパラメータの無欠性を検証し、その検証過程に所要されるコンピューティングリソースを節約することができる方法を提供することで、CNNが本来の機能を十分に遂行しながらもそのパラメータの無欠性が検証され得るようにする効果がある。
また、本発明は、計算の減少、データ圧縮等により、ニューラルネットワークにおける欠陥許容能力、機能的な安全性、極度の状況において揺れに強靭な性質を向上させるために使用され得、注釈費用の削減にも使用され得る。
本発明の実施例の説明に利用されるために添付された以下の図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
本発明の一実施例にしたがって少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法を遂行するコンピューティング装置の構成を示した図面である。 本発明の一実施例にしたがって入力イメージの背景領域にテストパターンを挿入することにより、ニューラルネットワークのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法のチャートを示した図面である。 本発明の一実施例にしたがって入力イメージの背景領域にテストパターンを挿入することにより、ニューラルネットワークのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法を使用して第t背景予測情報、検証用入力、検証用出力を生成するプロセスを簡略に示した図面である。 本発明の他の実施例にしたがって少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、コンピューティングリソースを節約する方法を遂行するコンピューティング装置の構成を示した図面である。 本発明の他の実施例にしたがって入力イメージから生成された統合イメージにテストパターンを挿入することにより、コンボリューションユニットのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法のチャートを示した図面である。 本発明の他の実施例にしたがって入力イメージから生成された統合イメージにテストパターンを挿入することにより、コンボリューションユニットのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法で使用される統合イメージを示した例示図である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法を遂行するコンピューティング装置の構成を示した図面である。
図1を参照すると、コンピューティング装置100は、追って詳しく説明する構成要素である少なくとも一つの背景予測ユニット130、少なくとも一つのパターン挿入ユニット140、少なくとも一つのニューラルネットワーク150、少なくとも一つの検証ユニット160及び少なくとも一つの中心計算ユニット170を含むことができる。背景予測ユニット130、パターン挿入ユニット140、ニューラルネットワーク150、検証ユニット160及び中心計算ユニット170の入出力及び演算の過程は、それぞれ通信部110及びプロセッサ120によって行われ得る。ただし、図1では通信部110及びプロセッサ120の具体的な連結関係を省略した。この際、少なくとも一つのメモリ115は、後述する様々な各インストラクションを予め格納した状態であり得、プロセッサ120はメモリ115に格納された各インストラクションを実行するように設定され、プロセッサ120は追って説明する各プロセスを実行することにより、本発明を遂行することができる。このようにコンピューティング装置100が描写されたからといって、コンピューティング装置100が本発明を実施するためのミディアム、プロセッサ及びメモリが統合された形態である統合プロセッサを含む場合を排除するわけではない。
以上、コンピューティング装置100の全体的な構成について説明したところ、コンピューティング装置100が遂行する、本発明の一実施例にしたがって入力イメージの背景領域にテストパターンを挿入することにより、ニューラルネットワークのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法について説明することにする。このために図2を参照する。
図2は、本発明の一実施例にしたがって入力イメージの背景領域にテストパターンを挿入することにより、ニューラルネットワークのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法のチャートを示した図面である。
図2を参照すると、第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、これら背景予測ユニット130に入力されることを確認することができる。以後、背景予測ユニット130から第t背景予測情報が出力されると、パターン挿入ユニット140は第tイメージとテストパターンとを利用して少なくとも一つの検証用入力を生成し、ニューラルネットワーク150は検証用入力に一つ以上のコンボリューション演算を適用することにより、少なくとも一つの検証用出力を生成し、検証ユニット160及び中心計算ユニット170は一つ以上の検証用出力を取得することができる。
具体的に、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、コンピューティング装置100が、背景予測ユニットをもって、前記第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させることができる。i2及びi1は任意の常数(integer)であり得るが、i2はi1より大きい値であるはずである。第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報を利用して、第t背景予測情報を生成することができる。背景領域の動きは、以前フレーム、例えば第(t−i2)フレーム及び第(t−i1)フレームに対応する各イメージを参照して予測され得る。
つまり、コンピューティング装置100が、背景予測ユニット130をもって、第(t−2)イメージに関する第(t−2)背景中心情報及び第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−2)イメージ及び第(t−1)イメージに含まれた背景に対応する、第tイメージ上における背景の中心位置を予測することができる。したがって、第t背景予測情報を生成することができるのである。
例えば、第(t−2)イメージに含まれた少なくとも一つの第(t−2)特定背景領域が存在し、第(t−1)イメージに、第(t−2)特定背景領域に対応する領域である少なくとも一つの第(t−1)特定背景領域が存在すると仮定する。ここで、第(t−2)特定背景領域と第(t−1)特定背景領域は、実際には同じ部分をカメラが撮影したものであるが、カメラが動くにつれてイメージ上における相対的な位置が変更された領域であり得る。
また、コンピューティング装置100は、背景予測ユニット130をもって、第(t−2)特定背景領域の実際の中心座標及び第(t−1)特定背景領域の実際の中心座標間の差異情報を生成させ、前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれる。このような差異情報は、第(t−2)特定背景領域に対応する3次元領域が第(t−i2)フレームと第(t−i1)フレームとの間でどれだけ移動したのかに関する情報を含むことができる。以後、このような差異情報と、第(t−1)特定背景領域の実際の中心座標とを参照して、第t背景予測情報を生成させることができる。一例として、第(t−1)特定背景領域の実際の中心座標及び前記差異情報を加算して第t背景予測情報を生成させることができる。これは、第(t−2)特定背景領域に対応する3次元領域が第(t−i2)フレームと第(t−i1)フレームとの間で動いた分だけ第(t−i1)フレームと第tフレームとの間で動いたものと予測するのである。このような第t背景予測情報には、第(t−2)特定背景領域及び第(t−1)特定背景領域に対応する、第tイメージに含まれた少なくとも一つの第t特定背景領域の予測中心座標情報が含まれるであろう。
この場合、他の例示として、i2−i1に対するi1の割合を前記差異情報に掛け合わせた後、掛け合わせた結果を第(t−1)特定背景領域の実際の中心座標に適用して、第t背景予測情報を生成することもできるはずである。これは、各フレーム間のイメージ撮影時間の差異が異なる場合、これを反映する場合にのみより正確に第t背景予測情報を求めることができるからである。
図3は、先に説明したように、第t背景予測情報を生成する例を示す。
図3は、本発明の一実施例にしたがって入力イメージの背景領域にテストパターンを挿入することにより、ニューラルネットワークのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法を使用して第t背景予測情報、検証用入力、検証用出力を生成するプロセスを簡略に示した図面である。
図3を参照すると、i2が2であり、i1が1である場合に第t背景予測情報を生成する過程を確認することができる。図3に含まれているそれぞれのイメージにおいて、それぞれの特定背景領域は空に対応する各領域であり得る。この際、第(t−2)フレームに対応するイメージにおける第(t−2)特定背景領域の実際の中心座標は(40、50)であり、第(t−1)フレームに対応するイメージにおける第(t−1)特定背景領域の実際の中心座標は(45、50)である。この場合、差異情報を演算すると(5、0)であるので、これを第(t−1)特定背景領域の実際の中心座標である(45、50)に加算して、第t特定背景領域の予測中心座標が(50、50)と生成され得るはずであろう。
このように、第t背景予測情報が生成されると、コンピューティング装置100が、パターン挿入ユニット140をもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように、前記第tイメージに前記テストパターンを挿入させ、前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージに含まれたそれぞれの第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれる。一例として、予測中心座標にテストパターンの中心が位置するようにテストパターンを挿入させることができる。また、テストパターンの一つ以上の境界部分に、ニューラルネットワーク150のコンボリューションカーネル(kernel)の大きさに対応する少なくとも一つのゼロパターンを追加することができる。
このようにテストパターン及びゼロパターンを追加することは、追って必要であり得る、第tイメージ上の物体に対する損傷情報を損なわないようにするためである。第t特定背景領域の予測中心座標にテストパターンの中心座標を位置させる理由は、テストパターンが背景にあるとき、第tイメージ上の物体に関する情報が損なわれ得ないからである。ゼロパターンを追加することは、隣接したピクセルの様々な値を同時に使用するコンボリューション演算の特性上、緩衝領域、すなわち、バッファ領域が存在する場合のみにテストパターンが他の部分のコンボリューション演算に影響を及ぼし得ないからである。
以後、コンピューティング装置100は、ニューラルネットワーク150をもって、検証用入力にコンボリューション演算を適用して検証用出力を生成させることができる。ニューラルネットワーク150は、ニューラルネットワークのパラメータの無欠性を検証することが本発明の目的であるところ、ニューラルネットワーク150は、すでに学習されていてもよい。検証用出力は、(i)テストパターンに対応する少なくとも一つの検証用領域及び(ii)第tイメージの全体領域のうちでテストパターン及びゼロパターンを除いた少なくとも一つの領域に対応する少なくとも一つの検出用領域を含むことができる。
このような検証用出力が生成されると、コンピューティング装置100は、検証ユニット160をもって、検証用出力及びテストパターンに対応する少なくとも一つの参照用出力を参照して、ニューラルネットワーク150の無欠性を判断させることができる。すなわち、検証用領域に含まれている各値と参照用出力に含まれている各値とを比較して、検証用領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用出力に含まれた値と異なる場合、ニューラルネットワーク150のパラメータの少なくとも一部が変更されたと判断することができるはずである。
ここで、コンピューティング装置100のセキュリティレベルが臨界レベル以上である場合、ニューラルネットワーク150は、テストパターンにコンボリューション演算を適用して参照用出力を生成することができる。セキュリティレベルが臨界レベル以上であった場合に、テストパターンに対するコンボリューション演算の結果が、テストパターンに対するコンボリューション演算の結果と異なるのであれば、ニューラルネットワークのパラメータに誤りがあると判断することができる。この方法によると、ニューラルネットワーク150のパラメータの無欠性が検証され得るであろう。
検証ユニット160のこのようなプロセスと並列して、コンピューティング装置100は、中心計算ユニット170をもって、第tイメージで第t特定背景領域の実際の中心座標を計算させることができる。これは、第(t+1)イメージが第(t+i3)フレームとして獲得されると、前記コンピューティング装置100が、前記背景予測ユニット130をもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる間、前記第t特定背景領域の前記実際の中心座標が前記で言及したように使用され得る。
また、検証ユニット160及び中心計算ユニット170のプロセスと並列して、コンピューティング装置100は、検証用出力で検出用領域を利用して、コンピューティング装置100の本来の機能を遂行することができる。これは、例えばイメージセグメンテーション、物体検出などであり得る。
以上、本発明の一実施例によるコンボリューションパラメータの無欠性を検証するためのテストパターンを、入力イメージの背景部分に挿入することにより、コンピューティングリソースを節約しながらもニューラルネットワークのパラメータの無欠性を検証することができる方法について説明したところ、以下にて本発明の他の実施例について説明することとする。
図4は、本発明の他の実施例にしたがって少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、コンピューティングリソースを節約する方法を遂行するコンピューティング装置の構成を示した図面である。
図4を参照すると、コンピューティング装置200は、追って詳しく説明する構成要素である少なくとも一つのターゲット領域予測ネットワーク230、少なくとも一つのイメージ加工ネットワーク240、コンボリューションユニット250、少なくとも一つの検証ユニット260及び少なくとも一つの物体検出器270を含むことができる。ターゲット領域予測ネットワーク230、イメージ加工ネットワーク240、コンボリューションユニット250、検証ユニット260及び物体検出器270の入出力及び演算の過程はそれぞれ通信部210及びプロセッサ220によって行われ得る。ただし、図4では通信部210とプロセッサ220との具体的な連結関係を省略した。この際に、少なくとも一つのメモリ215は、後述する様々な各インストラクションを予め格納した状態であり得、プロセッサ220は、メモリ215に格納された各インストラクションを遂行するように設定され、プロセッサ220は、追って説明するプロセスを遂行することにより本発明を遂行することができる。このようにコンピューティング装置200が描写されたからといって、コンピューティング装置200が本発明を実施するためのミディアム、プロセッサ及びメモリが統合された形態である統合プロセッサを含む場合を排除するわけではない。
以上、コンピューティング装置200の全体的な構成について説明したところ、コンピューティング装置200が遂行する、本発明の他の実施例にしたがって入力イメージから生成された統合イメージにテストパターンを挿入することにより、コンボリューションユニットのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法について説明することにする。このために図5を参照する。
図5は、本発明の他の実施例にしたがって入力イメージから生成された統合イメージにテストパターンを挿入することにより、コンボリューションユニットのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法のチャートを示した図面である。
図5を参照すると、ターゲット領域予測ネットワーク230に入力イメージが入力されると、ターゲット領域予測ネットワーク230、イメージ加工ネットワーク240及びコンボリューションユニット250を経て少なくとも一つの特徴マップが生成され得る。また、特徴マップ及び少なくとも一つの参照用出力が検証ユニット260に入力され、特徴マップが物体検出器270に入力される構成を確認することができる。以下、このような過程を具体的に検討する。
まず、入力イメージが取得されると、コンピューティング装置200は、ターゲット領域予測ネットワーク230をもって、入力イメージまたはこれに対応するリサイズされたイメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させることができる。
ここで、第1ターゲット領域ないし第nターゲット領域は、入力イメージ内のターゲット物体のうちで多数の異なるターゲット物体に対応することもでき、大きさが互いに異なる多数のイメージ内における少なくとも一つの同一のターゲット物体に対応することもできる。また、第1ターゲット領域ないし第nターゲット領域は、入力イメージの少なくとも一部及びその大きさがリサイズされたイメージを含むイメージピラミッドに含まれたそれぞれのイメージ内に位置するものと予測された各ターゲット物体に対応し得る。ターゲット物体とは、入力イメージ上で検出されるべき各物体を意味し得る。
したがって、ターゲット領域予測ネットワーク230は、入力イメージ内に第1ターゲット物体ないし第nターゲット物体が位置するものと推定される領域に対応して第1ターゲット領域ないし第nターゲット領域を検索するか、入力イメージから得たリサイズされた第1リサイズイメージないし第nリサイズイメージそれぞれに少なくとも一つの特定ターゲット物体が位置するものと推定される領域に対応して第1ターゲット領域ないし第nターゲット領域を検索することができる。
また、ターゲット領域予測ネットワーク230は、入力イメージで単一のターゲット物体が位置するものと推定される特定領域に対応する特定ターゲット領域を検索し、入力イメージから得たリサイズされた第1リサイズイメージないし第nリサイズイメージのそれぞれにおいて単一ターゲット物体が位置するものと推定される特定領域に対応する第1ターゲット領域ないし第nターゲット領域を検索することができる。
さらに、入力イメージ内に多数のターゲット物体がある場合、ターゲット領域予測ネットワーク230によって、リサイズイメージのそれぞれにおいてそれぞれのターゲット物体に対応するそれぞれのターゲット領域を推定することができる。
このような各ターゲット領域を取得することができる方法についてさらに具体的に説明すると、まず、ターゲット領域予測ネットワーク230は、入力イメージまたはこれに対応するリサイズされた各イメージそれぞれに対するそれぞれのスケールヒストグラムを計算させ、計算されたスケールヒストグラムを参照して、ターゲット物体が位置するものと推定される各スケールプロポーザルに対応して第1ターゲット領域ないし第nターゲット領域を推定することができる。
また、ターゲット領域予測ネットワーク230は、入力イメージまたはこれに対応するリサイズされたイメージそれぞれに対してセグメンテーションを遂行し、これに基づいてターゲット領域を検索するためのシード(seed)を設定した後、小さなターゲット領域を繰り返し大きな領域に統合した各統合領域を参照して、第1ターゲット領域ないし第nターゲット領域を推定することができる。
また、他の方法により、ターゲット領域予測ネットワーク230は、前景セグメンテーション(foreground segmenatation)によって入力イメージ上の前景を識別することができ、識別された前景を参照して、ターゲット物体が位置するものと推定され、ターゲット物体を含むものと推定される大きさの各領域を第1ターゲット領域ないし第nターゲット領域として設定することができる。
さらに、ターゲット領域予測ネットワーク230は、サリエンシー検出(saliency detection)方法を利用して第1ターゲット領域ないし第nターゲット領域を設定することができる。以上、ターゲット領域を設定する四種類の方法を説明したが、本発明はこれに限定されないのであり、入力イメージ内で各ターゲット領域を探し出すあらゆる方法が使用され得る。
このように、第1ターゲット領域ないし第nターゲット領域が生成されると、コンピューティング装置200が、イメージ加工ネットワーク240をもって、入力イメージまたはこれに対応するリサイズされたイメージから、第1ターゲット領域ないし第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させることができる。
ここで、コンピューティング装置200が、イメージ加工ネットワーク240をもって、入力イメージまたはこれに対応するリサイズされたイメージ上で第1ターゲット領域ないし第nターゲット領域に対応する一つ以上の領域をクロップ(cropping)して第1加工イメージないし第n加工イメージを生成するようにするか、入力イメージまたはこれに対応するリサイズされた各イメージ上で第1ターゲット領域ないし第nターゲット領域に対応する一つ以上の領域をクロップした後、リサイズして第1加工イメージないし第n加工イメージを生成させることができる。
以後、コンピューティング装置200は、第1加工イメージないし第n加工イメージをコンカチネート(concatenating)することにより、統合トレーニングイメージを生成させることができる。この際、コンピューティング装置200は、イメージ加工ネットワーク240をもって、第1加工イメージないし第n加工イメージの幅(width)または長さ(length)のうち少なくとも一つの大きさを同一に調整した後、同一の大きさに調整された幅または長さ方向に第1加工イメージないし第n加工イメージをコンカチネートすることができる。前記コンカチネートの過程で、コンピューティング装置200は、イメージ加工ネットワーク240をもって、第1調整済み加工イメージないし第n調整済み加工イメージにコンカチネートされる2つの隣り合う調整済み加工イメージから構成されるそれぞれの対の間に少なくとも一つのテストパターンを追加させることができる。また、少なくとも一つのゼロパターンは、前記テストパターン及び前記統合イメージにおいてそれぞれの隣接した加工イメージの間に位置し、前記ゼロパターンの幅は、前記ニューラルネットワークのコンボリューションカーネルの大きさに対応させることができる。
第1加工イメージないし第n加工イメージそれぞれは、互いのコンボリューション演算の結果に影響を及ぼさないようにするために特定の大きさの少なくとも一つのゼロパディング領域、すなわちゼロパターンを必要とし得る。この際、ゼロパディング領域が挿入される領域にテストパターンを挿入することにより、格納空間の節約と演算量の減少を同時に図ることができる。また、テストパターンは、ゼロパディング領域をテストパターンの両端にさらに挿入することにより、第1加工イメージないし第n加工イメージに対するコンボリューション演算のそれぞれの結果に影響を及ぼさないようにすることができる。このような場合の例示を検討するために図6を参照することにする。
図6は、本発明の他の実施例にしたがって入力イメージから生成された統合イメージにテストパターンを挿入することにより、コンボリューションユニットのパラメータの無欠性を検証し、コンピューティングリソースを節約する方法で使用される統合イメージを示した例示図である。
図6を参照すると、テストパターン及びゼロパディング領域が加工イメージの間に挿入されたことが分かる。テストパターン及びゼロパディング領域は、統合イメージで2つの隣り合う加工イメージの一対または多数の対の間に位置することもできる。
以後、コンピューティング装置200が、コンボリューションユニット250をもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させることができる。特徴マップの全体領域は、テストパターンに対応する領域である検証用領域と一つ以上の検出用領域に分割することができるが、検出用領域はテストパターンに対応せず、加工イメージに対応する領域である。
特徴マップが生成されると、コンピューティング装置200が、検証ユニット260をもって、特徴マップ上で検証用領域に含まれている各値と参照用出力に含まれている各値とを参照して、コンボリューションユニット250の無欠性を検証させることができる。ここで参照用出力は、前述した本発明の一実施例のように、コンピューティング装置のセキュリティレベルが臨界レベル以上である場合に、コンボリューションユニット250によってテストパターンに適用されたコンボリューション演算の結果であり得る。検証ユニット260は、検証用領域に含まれている各値と参照用出力に含まれている各値とを比較することによりコンボリューションユニット250の無欠性を検証することができるのである。
また、特徴マップが作成された後に、コンピューティング装置200は、物体検出器270をもって、特徴マップの全体領域のうちで検出用領域に含まれている各値を参照して、入力イメージ内の物体に関するクラス情報及び位置情報を生成させることができる。このように統合イメージを生成することの本来の目的は、物体検出がさらに十分に行われるようにすることであり、コンボリューションユニット250の無欠性を検証することはまた別の目的であるので、検出用領域に含まれている各値を利用してコンピューティング装置200の本来の役割をすべて行うようにするのである。
前述したような二種類の実施例を通じて、少なくとも一つのテストパターンを使用して一つ以上のコンボリューションパラメータの無欠性を検証し、その検証過程に所要されるコンピューティングリソースを節約することができるであろう。
以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行される高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
[付記]
本発明は、テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置{METHOD AND DEVICE FOR ECONOMIZING COMPUTING RESOURCES TO BE USED DURING A PROCESS OF VERIFICATION OF CONVOLUTIONAL PARAMETERS USING TEST PATTERN TO ENHANCE FAULT TOLERANCE AND FLUCTUATION ROBUSTNESS IN EXTREME SITUATIONS}に関する。
特に、本発明は、テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約することができる方法及び装置に関する。より詳細には、少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、(a)コンピューティング装置が、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させる段階:(b)前記コンピューティング装置が、前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより、少なくとも一つの検証用入力を生成させる段階;(c)前記コンピューティング装置が、前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させる段階;及び(d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させる段階;を含むことを特徴とする方法及び装置に関する。

Claims (24)

  1. 少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、
    (a)コンピューティング装置が、映像の第(t−i2)フレーム及び第(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させる段階;
    (b)前記コンピューティング装置が、前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより、少なくとも一つの検証用入力を生成させる段階;
    (c)前記コンピューティング装置が、前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させる段階;及び、
    (d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させる段階;
    を含むことを特徴とする方法。
  2. 前記(a)段階は、
    前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とする請求項1に記載の方法。
  3. 前記(a)段階は、
    前記コンピューティング装置が、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、
    前記コンピューティング装置が、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、
    前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とする請求項2に記載の方法。
  4. 前記(b)段階は、
    前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように前記第tイメージに前記テストパターンを挿入させ、
    前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とする請求項1に記載の方法。
  5. 前記(b)段階は、
    前記コンピューティング装置が、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とする請求項4に記載の方法。
  6. 前記(d)段階は、
    前記コンピューティング装置が、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、
    前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記コンピューティング装置が、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とする請求項1に記載の方法。
  7. 前記(a)段階以前に、
    前記コンピューティング装置のセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とする請求項1に記載の方法。
  8. 前記(c)段階以後に、
    (e)前記コンピューティング装置が、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  9. 前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記コンピューティング装置が、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とする請求項8に記載の方法。
  10. 少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する方法において、
    (a)コンピューティング装置が、前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させる段階;
    (b)前記コンピューティング装置が、少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させる段階;
    (c)前記コンピューティング装置が、前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させる段階;及び
    (d)前記コンピューティング装置が、少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値及び前記コンボリューションユニットにより前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値を参照して、前記コンボリューションユニットの前記無欠性を検証させる段階;
    を含むことを特徴とする方法。
  11. 前記(c)段階以後に、
    (e)前記コンピューティング装置が、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させる段階;
    をさらに含むことを特徴とする請求項10に記載の方法。
  12. 前記(b)段階は、
    少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とする請求項10に記載の方法。
  13. 少なくとも一つの入力イメージの少なくとも一つの背景領域に少なくとも一つのテストパターンを挿入することにより、ニューラルネットワークにおける一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、
    各インストラクションを格納する少なくとも一つのメモリと、
    (I)映像の(t−i2)フレーム及び(t−i1)フレームそれぞれに対応する第(t−2)イメージ及び第(t−1)イメージそれぞれに関する情報が取得されると、少なくとも一つの背景予測ユニットをもって、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに関する情報を参照して、第tイメージの第t背景予測情報を生成させるプロセス;(II)前記第tイメージが取得されると、少なくとも一つのパターン挿入ユニットをもって、前記第t背景予測情報を参照して、前記第tイメージに前記テストパターンを挿入することにより少なくとも一つの検証用入力を生成させるプロセス;(III)前記ニューラルネットワークをもって、前記検証用入力に一つ以上のコンボリューション演算を適用して少なくとも一つの検証用出力を生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記検証用出力及び前記テストパターンに対応する少なくとも一つの参照用出力を参照して、前記ニューラルネットワークの無欠性を判断させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とするコンピューティング装置。
  14. 前記(I)プロセスは、
    前記プロセッサが、前記背景予測ユニットをもって、前記第(t−2)イメージに関する第(t−2)背景中心情報及び前記第(t−1)イメージに関する第(t−1)背景中心情報を参照して、第(t−1)イメージ及び第(t−1)イメージに含まれた背景に対応する、前記第tイメージ上における背景の中心位置を予測させることにより、前記第t背景予測情報を生成させることを特徴とする請求項13に記載のコンピューティング装置。
  15. 前記(I)プロセスは、
    前記プロセッサが、前記背景予測ユニットをもって、(i)前記第(t−2)イメージで少なくとも一つの第(t−2)特定背景領域の実際の中心座標と、(ii)前記第(t−2)特定背景領域に対応する、前記第(t−1)イメージ上における少なくとも一つの第(t−1)特定背景領域の実際の中心座標との間の差異情報を生成させ、前記プロセッサが、前記背景予測ユニットをもって、前記差異情報及び前記第(t−1)特定背景領域の実際の中心座標を参照して、前記第t背景予測情報を生成させ、前記第(t−2)特定背景領域の実際の中心座標は、前記第(t−2)背景中心情報に含まれ、前記第(t−1)特定背景領域の実際の中心座標は、前記第(t−1)背景中心情報に含まれることを特徴とする請求項14に記載のコンピューティング装置。
  16. 前記(II)プロセスは、
    前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの中心座標が前記第tイメージで少なくとも一つの第t特定背景領域の予測中心座標に位置するように、前記第tイメージに前記テストパターンを挿入させ、前記第t特定背景領域は、前記第(t−2)イメージ及び前記第(t−1)イメージそれぞれに含まれた第(t−2)特定背景領域及び第(t−1)特定背景領域それぞれに対応し、前記第t特定背景領域の予測中心座標は、前記第t背景予測情報に含まれることを特徴とする請求項13に記載のコンピューティング装置。
  17. 前記(II)プロセスは、
    前記プロセッサが、前記パターン挿入ユニットをもって、前記テストパターンの一つ以上の境界部分に、前記ニューラルネットワークのコンボリューションカーネル(kernel)の大きさに対応する幅を有する少なくとも一つのゼロパターンを追加させることにより、前記テストパターンが、前記ニューラルネットワークによって前記第tイメージに適用される一つ以上の演算に影響を与えないようにすることを特徴とする請求項16に記載のコンピューティング装置。
  18. 前記(IV)プロセスは、
    前記プロセッサが、前記検証ユニットをもって、前記検証用出力の全体領域のうちで、前記テストパターンに対応する少なくとも一つの特定領域に含まれた値と前記参照用出力に含まれた値とを比較して、前記特定領域に含まれた値のうちで少なくとも一つの値がこれに対応する参照用前記出力に含まれた値と異なる場合、前記プロセッサが、前記検証ユニットをもって、前記ニューラルネットワークの一つ以上のパラメータの少なくとも一部が変更されたと判断させることを特徴とする請求項13に記載のコンピューティング装置。
  19. 前記(I)プロセス以前に、
    前記プロセッサのセキュリティレベルが臨界レベル以上である場合、前記ニューラルネットワークが前記テストパターンに一つ以上のコンボリューション演算を適用することにより、前記参照用出力を生成した状態であることを特徴とする請求項13に記載のコンピューティング装置。
  20. 前記(III)プロセス以後に、
    (V)前記プロセッサが、少なくとも一つの中心計算ユニットをもって、前記第tイメージで少なくとも一つの背景領域の実際の中心座標を計算させるプロセス;をさらに遂行することを特徴とする請求項13に記載のコンピューティング装置。
  21. 前記映像の第(t+i3)フレームに対応する第(t+1)イメージが取得されると、前記プロセスが、前記背景予測ユニットをもって、前記第(t+1)イメージに対する第(t+1)背景予測情報を生成させる際に、前記第tイメージで前記背景領域の前記実際の中心座標が使用されることを特徴とする請求項20に記載のコンピューティング装置。
  22. 少なくとも一つの入力イメージから生成された少なくとも一つの統合イメージに少なくとも一つのテストパターンを挿入することにより、コンボリューションユニットの一つ以上のパラメータの無欠性を検証し、一つ以上のコンピューティングリソースを節約する装置において、
    各インストラクションを格納する少なくとも一つのメモリと、
    (I)前記入力イメージが取得されると、ターゲット領域予測ネットワークをもって、前記入力イメージまたはこれに対応する一つ以上のリサイズされた各イメージにおいて、一つ以上のターゲット物体がそれぞれ位置するものと予測される第1ターゲット領域ないし第nターゲット領域を予測させるプロセス;(II)少なくとも一つのイメージ加工ネットワークをもって、前記入力イメージまたはこれに対応するリサイズされたイメージから、前記第1ターゲット領域ないし前記第nターゲット領域それぞれに対応する第1加工イメージないし第n加工イメージを生成させ、前記第1加工イメージないし前記第n加工イメージをコンカチネート(concatenating)することにより前記統合イメージを生成させ、前記コンカチネートされる時点で、前記第1加工イメージないし前記第n加工イメージのうちで少なくとも一部の互いに隣接した各加工イメージの間に前記テストパターンを挿入させるプロセス;(III)前記コンボリューションユニットをもって、前記統合イメージに前記コンボリューション演算を適用することにより、少なくとも一つの特徴マップを生成させるプロセス;及び(IV)少なくとも一つの検証ユニットをもって、前記特徴マップ上にある、前記テストパターンに対応する少なくとも一つの領域に含まれた値と、前記コンボリューションユニットによって前記テストパターンに適用された一つ以上の演算結果に対応する少なくとも一つの参照用出力に含まれた値とを参照して、前記コンボリューションユニットの前記無欠性を検証させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とするコンピューティング装置。
  23. 前記(III)プロセス以後に、
    (V)前記プロセッサが、前記特徴マップが取得されると、少なくとも一つの物体検出器をもって、前記入力イメージで一つ以上の物体に関するクラス情報及び位置情報を生成させるプロセス;をさらに遂行することを特徴とする請求項22に記載のコンピューティング装置。
  24. 前記(II)プロセスは、
    少なくとも一つのゼロパターンは、前記統合イメージの前記テストパターンとそれぞれの隣接した加工イメージとの間に位置し、前記ゼロパターンの幅は前記ニューラルネットワークのコンボリューションカーネルの大きさに対応することを特徴とする請求項22に記載のコンピューティング装置。
JP2020004238A 2019-01-28 2020-01-15 テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 Active JP6840412B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/258850 2019-01-28
US16/258,850 US10474543B1 (en) 2019-01-28 2019-01-28 Method and device for economizing computing resources to be used during a process of verification of convolutional parameters using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations

Publications (2)

Publication Number Publication Date
JP2020119552A true JP2020119552A (ja) 2020-08-06
JP6840412B2 JP6840412B2 (ja) 2021-03-10

Family

ID=68466251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004238A Active JP6840412B2 (ja) 2019-01-28 2020-01-15 テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置

Country Status (5)

Country Link
US (1) US10474543B1 (ja)
EP (1) EP3731143B1 (ja)
JP (1) JP6840412B2 (ja)
KR (1) KR102338772B1 (ja)
CN (1) CN111488787B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020202632A1 (de) * 2020-03-02 2021-09-02 Robert Bosch Gesellschaft mit beschränkter Haftung Inferenzberechnung für neuronale Netzwerke mit Schutz gegen Speicherfehler
CN111475321B (zh) * 2020-05-08 2024-04-26 中国人民解放军国防科技大学 一种基于迭代抽象分析的神经网络安全性质验证方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126197B2 (en) * 2007-11-29 2012-02-28 Certifi-Media Inc. Method for image quality assessment using quality vectors
JP2009182695A (ja) * 2008-01-30 2009-08-13 Duaxes Corp データベース検査装置
JP2014062943A (ja) * 2012-09-20 2014-04-10 Seiko Epson Corp 検査回路、表示装置、電子機器、電子時計および表示装置の検査方法
US10249035B2 (en) * 2013-03-29 2019-04-02 Nima Labs, Inc. System and method for detecting target substances
WO2018033156A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 视频图像的处理方法、装置和电子设备
US10943148B2 (en) * 2016-12-02 2021-03-09 Apple Inc. Inspection neural network for assessing neural network reliability
US10402688B2 (en) * 2016-12-07 2019-09-03 Kla-Tencor Corporation Data augmentation for convolutional neural network-based defect inspection
US10108850B1 (en) * 2017-04-24 2018-10-23 Intel Corporation Recognition, reidentification and security enhancements using autonomous machines
CN108256562B (zh) * 2018-01-09 2022-04-15 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN108846440B (zh) * 2018-06-20 2023-06-02 腾讯科技(深圳)有限公司 图像处理方法及装置、计算机可读介质和电子设备

Also Published As

Publication number Publication date
KR102338772B1 (ko) 2021-12-15
CN111488787A (zh) 2020-08-04
EP3731143B1 (en) 2021-12-15
CN111488787B (zh) 2023-11-24
KR20200093420A (ko) 2020-08-05
JP6840412B2 (ja) 2021-03-10
US10474543B1 (en) 2019-11-12
EP3731143A1 (en) 2020-10-28

Similar Documents

Publication Publication Date Title
KR102373456B1 (ko) 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
CN111489403B (zh) 利用gan来生成虚拟特征图的方法及装置
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR20200027428A (ko) 에지 이미지를 이용하여 객체를 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6908944B2 (ja) 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
KR102362744B1 (ko) 딥 뉴럴 네트워크(deep neural network) 기반의 다중 패치 조합(multiple patch combination)을 이용하여 얼굴을 인식하고, 극도의 상황에서 결함 허용 능력 및 흔들림에 강인한 성질을 향상시키는 방법
JP6846069B2 (ja) 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same}
KR20200027427A (ko) 차선 후보 픽셀의 분류를 통해 차선을 검출하는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6957050B2 (ja) モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same}
CN111462193B (zh) 用于多摄像机或环绕视图监控的对象检测方法及装置
US10402978B1 (en) Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same
KR102320999B1 (ko) 폴트 톨러런스 및 플럭츄에이션 로버스트를 위한 복수의 뉴럴 네트워크를 사용하여 흔들리는 카메라로 인해 생성된 비디오에서 지터링을 제거하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102252155B1 (ko) 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102338768B1 (ko) 기능적 안전성을 위해 극한 상황에서 폴트 톨러런스 및 플럭츄에이션 로버스트를 향상시키도록 테스트 패턴을 이용해 cnn의 파라미터의 무결성을 검증하기 위한 방법 및 장치
JP6840412B2 (ja) テストパターンを使用してコンボリューションパラメータの無欠性を検証する過程で所要されるコンピューティングリソースを節約し、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置
KR102309712B1 (ko) 객체의 조건에 따라 모드를 전환할 수 있는 CNN 기반으로 군사 목적, 스마트폰 또는 가상 주행에 사용되는 수도(Pseudo)-3D 바운딩 박스를 검출하는 방법 및 이를 이용한 장치
JP2020119537A (ja) 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置
US11869212B1 (en) Method for training video object detection model using training dataset and learning device using the same
EP3722999B1 (en) Method and device for verifying integrity of parameters of cnn by using test pattern
KR102326278B1 (ko) 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치
US11875527B1 (en) Descriptor generation and point cloud fusion
KR102313605B1 (ko) 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200709

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210202

R150 Certificate of patent or registration of utility model

Ref document number: 6840412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250