JP6849898B2 - 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 - Google Patents

生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 Download PDF

Info

Publication number
JP6849898B2
JP6849898B2 JP2020004546A JP2020004546A JP6849898B2 JP 6849898 B2 JP6849898 B2 JP 6849898B2 JP 2020004546 A JP2020004546 A JP 2020004546A JP 2020004546 A JP2020004546 A JP 2020004546A JP 6849898 B2 JP6849898 B2 JP 6849898B2
Authority
JP
Japan
Prior art keywords
image
composite
rare
test
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020004546A
Other languages
English (en)
Other versions
JP2020126608A (ja
Inventor
− ヒョン キム、ケイ
− ヒョン キム、ケイ
キム、ヨンジュン
キム、インスー
− キョン キム、ハク
− キョン キム、ハク
ナム、ウヒョン
ブー、ソッフン
ソン、ミュンチュル
ヨー、ドンフン
リュー、ウジュ
チャン、テウン
ジョン、キュンチョン
チェ、ホンモ
チョウ、ホジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126608A publication Critical patent/JP2020126608A/ja
Application granted granted Critical
Publication of JP6849898B2 publication Critical patent/JP6849898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

監視システムがより正確に周辺状況を識別し、レアイベントを検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置{METHOD AND DEVICE FOR GENERATING DECEIVABLE COMPOSITE IMAGE BY USING GAN INCLUDING GENERATING NEURAL NETWORK AND DISCRIMINATING NEURAL NETWORK TO ALLOW SURVEILLANCE SYSTEM TO RECOGNIZE SURROUNDINGS AND DETECT RARE EVENT MORE ACCURATELY}を提供する。
本発明は、自律走行車両に利用するための方法及び装置に関し;より詳細には、敵対的生成ネットワーク(Generative Adversarial Network、GAN)を利用して、合成可否判断不可の合成イメージを生成して、レアイベントをより正確に検出する方法、及び装置、並びにこれを利用したテスティング方法、及びテスティング装置に関する。
ディープ・コンボリューション・ニューラル・ネットワーク(Deep Convolution Neural Networks;DeepCNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解くために90年代にすでに使われたが、現在のように広く使われるようになったのは最近の研究結果のおかげだ。このようなCNNは、2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。そして、コンボリューションニューラルネットワークは機械学習(Machine Learning)分野で非常に有用なツールとなった。
このように、CNNは銀行や軍事基地など、セキュリティが非常に重要な施設の監視システムにおいても利用され得る。すなわち、CNNがCCTV映像データを適切に処理することでリアルタイムにレアイベント(例えば、銀行の場合は強盗の侵入、軍隊の場合は敵軍の侵入等があり得る)を感知し、従来のように人がCCTV映像データをいちいち監視することに比べてより迅速かつ効率的に監視システムを運営・管理できるということである。
だが、こうした監視システムの具現化が難しい理由は、CNNを学習するためのトレーニングイメージが足りないからである。CNNの学習には、一万単位以上のトレーニングのイメージが必要だが、前記のようなレアイベントと関連されたトレーニングイメージは、当然その数が少ない。これにより、CNNの学習が難しくなり、こうした監視システムは商用化されずにいる。
本発明は、前述した問題点を解決することを目的とする。
本発明は、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して、少なくとも一つの自然に合成されたイメージを生成する方法を提供することを目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は次の通りである。
本発明の一態様によれば、監視システム(surveillance system)が少なくとも一つのレアイベント(rare event)をより正確に検出できるようにするために、生成ニューラルネットワークと判別ニューラルネットワークとを含む敵対的生成ネットワーク(Generative Adversarial Network,GAN)を利用して、少なくとも一つの合成可否判断不可の合成イメージを生成する方法において、(a)コンピューティング装置が、前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置の候補群を生成するようにし、少なくとも一つの第1判別器(discriminator)によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参考にして、前記レア物体の前記位置候補群の中の特定場所候補群を前記レア物体の最適位置に選択するようにする段階;(b)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにする段階;及び(c)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;を含むことを特徴とする方法が開示される。
一例として、前記(c)段階は、前記コンピューティング装置が、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させる段階;を含むことを特徴とする。
一例として、(d)前記コンピューティング装置が、少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにする段階;をさらに含むことを特徴とする。
一例として、前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする。
一例として、前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする。
一例として、前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGT(Ground Truth)を参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする。
一例として、前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする。
一例として、前記(a)段階で、前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする。
一例として、前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする。
一例として、前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする。
一例として、前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする。
本発明の他の態様によれば、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージを生成するテスティング方法において、(a)学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景トレーニングイメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成させ、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参考にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択するようにして、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、テスティング装置が、前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成させ、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参考にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択するようにする段階;(b)前記テスティング装置が、前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにする段階;及び(c)前記テスティング装置が、前記生成ニューラルネットワークに含まれた調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;を含むことを特徴とする方法が開示される。
本発明のまた他の態様によれば、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して、少なくとも一つの合成可否判断不可の合成テストイメージを生成するコンピューティング装置において、各インストラクションを格納する少なくとも一つのメモリ;及び(I)前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参照にして、前記レア物体の前記位置候補群の中の特定位置候補群を前記レア物体の最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含むことを特徴とするコンピューティング装置。
一例として、前記(III)プロセスで、前記プロセッサが、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させることを特徴とする。
一例として、前記プロセッサは、(IV)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにするプロセス;をさらに遂行することを特徴とする。
一例として、前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする。
一例として、前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする。
一例として、前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)前記非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGTを参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする。
一例として、前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする。
一例として、前記(I)プロセスで、前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする。
一例として、前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする。
一例として、前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする。
一例として、前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする。
本発明のまた他の態様によれば、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージ生成をテストするためのテスティング方法において、各インストラクションを格納する少なくとも一つのメモリ;及び学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景イメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参照にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択させ、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、(I)前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成するようにし、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参照にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた前記調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含むことを特徴とするテスティング装置が開示される。
本発明は、監視システムがより正確に周辺事項を識別し、危険状況のようなレアイベントを検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(Generative Adversarial Network,GAN)、より正確には、異種センサ融合(heterogeneous sensor fusion)を利用して、合成可否判断不可の合成イメージを生成する方法を提供できる効果ある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
図1は、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して、少なくとも一つの合成可否判断不可の合成テストイメージを生成するコンピューティング装置を概略的に示した図面である。 図2は、監前記視システムが、前記レアイベントをより正確に検出できるようにするために、前記生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、前記合成可否判断不可の合成イメージを生成するために利用される前記生成ニューラルネットワークの構成を概略的に示した図面である。 図3は、監前記視システムが、前記レアイベントをより正確に検出できるようにするために、前記生成ニューラルネットワークと、判別ニューラルネットワークとを含む前記敵対的生成ネットワークを利用して、前記合成可否判断不可の合成イメージを生成する方法を概略的に示した図面である。
後述する本発明に対する詳細な説明は、本発明の各目的、技術的解決方法及び長所を明確にするために、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように充分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のあらゆる可能な組合せを網羅する。本発明の多様な実施例は相互異なるが、相互排他的である必要はないことを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は一例と関連して、本発明の精神及び範囲を逸脱せず、かつ他の実施例で実装され得る。また、各々の開示された実施例内の個別構成要素の位置または配置は本発明の精神及び範囲を逸脱せずに変更され得ることを理解されたい。従って、後述する詳細な説明は限定的な意味で捉えようとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張することと均等なすべての範囲と、併せて添付された請求項によってのみ限定される。図面で類似する参照符号はいくつかの側面にかけて同一か類似する機能を指称する。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面に基づいて詳細に説明する。
図1は、監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、少なくとも一つの合成可否判断不可の合成テストイメージを生成するコンピューティング装置を概略的に示した図面である。
図1を参照すれば、前記コンピューティング装置100は、後から詳しく説明される要素である前記生成ニューラルネットワーク200と、少なくとも一つの第1判別器300と、少なくとも一つの第2判別器400と、少なくとも一つの物体検出ネットワーク500とを含み得る。前記生成ニューラルネットワーク200と、前記第1判別器300と、前記第2判別器400とを含む判別ニューラルネットワーク及び前記物体検出ネットワーク500の入出力及び演算過程は、それぞれ通信部110やプロセッサ120によって行われ得る。ただし、図1では、前記通信部110と、前記プロセッサ120との間の具体的な連結関係を省略した。この際、メモリ115は、後述されるいくつかのインストラクションを格納した状態でもあり得、前記プロセッサ120は、前記メモリ115に格納された前記インストラクションを実行することができ、前記プロセッサ120は、後から説明されるプロセスを実行することにより本発明を行うことができる。このように前記コンピューティング装置100が描写されたところで、前記コンピューティング装置100が本発明を実施するためのプロセッサ、メモリ、ミディアム、または他のコンピューティング構成要素が統合された形態である統合プロセッサを含む場合を排除するものではない。
前記コンピューティング装置100の全体的な構成について説明したところ、前記コンピューティング装置100の構成要素の核心的な役割を遂行する前記生成ニューラルネットワーク200の構造を説明するため、図2を参照する。
図2は、監前記視システムが、前記レアイベントをより正確に検出できるようにするために、前記生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、前記合成可否判断不可の合成イメージを生成するために利用される前記生成ニューラルネットワークの構成を概略的に示した図面である。
図2を参照すれば、前記生成ニューラルネットワーク200は、少なくとも一つの位置指定レイヤ210と、少なくとも一つの合成レイヤ220と、少なくとも一つの調整レイヤ230と、少なくとも一つのロスレイヤ240とを含み得る。それぞれの前記レイヤがどのような役割をするかについては、後から図3を参照にして詳しく説明される。こちらも追って説明するが、前記コンピューティング装置100が試験装置として機能する際には、前記ロスレイヤ240は除外され得る。
前記生成ニューラルネットワーク200の構成は前記のようで、本発明に係る前記合成可否判断不可の合成イメージを生成する方法について具体的に説明し、これと同時に前記第1判別器300と、前記第2判別器400と、前記物体検出ネットワーク500とについても説明する。このために、図3を参考する。
図3は、監前記視システムが、前記レアイベントをより正確に検出できるようにするために、前記生成ニューラルネットワークと、判別ニューラルネットワークとを含む前記敵対的生成ネットワークを利用して、前記合成可否判断不可の合成イメージを生成する方法を概略的に示した図面である。
図3を参照にすれば、本発明に係る前記合成可否判断不可の合成イメージを生成する方法は、前記生成ニューラルネットワーク200に含まれた前記レイヤと、前記第1判別器300と、前記第2判別器400と、前記物体検出ネットワーク500との間の相互作用を通じて遂行されることが分かる。
まず、前記コンピューティング装置100が、前記監視システムを学習するのに利用される前記合成可否判断不可の合成イメージを生成するため、前記合成可否判断不可の合成イメージ上で前記レアイベントが起こる背景にしようとする少なくとも一つの背景イメージ201及び前記珍しいイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージ202を取得できる。以降、前記コンピューティング装置100が、前記位置指定レイヤ210をもって、前記レア物体のイメージ202が挿入される前記背景イメージ201上での前記レア物体の位置候補群を生成するようにし得る。前記位置候補群は、第1位置候補群を選定した後、これをスライディングウィンドゥ方式で特定距離分だけ周辺に反復的に移動させることで生成され得る。その後、前記第1判別器300は、それぞれの前記位置候補群に対応する一つ以上の候補群点数それぞれを評価する。
前記第1判別器300が効率的に前記候補群点数を生成できるようにするため、前記位置指定レイヤ210は、前記第1判別器300に入力されるそれぞれの合成レイアウトを生成することができる。具体的に、前記位置指定レイヤ210が、前記背景イメージ201に含まれた一つ以上の背景物体を認識して、前記背景イメージ201上で、前記背景物体を含む一つ以上の背景物体バウンディングボックスを生成することができる。また、前記レア物体に対応する一つ以上のレア物体バウンディングボックスは、それぞれの前記位置候補群上にそれぞれ生成され得る。このように、前記背景イメージ201上に前記背景物体バウンディングボックス及びそれぞれの前記レア物体バウンディングボックスが追加されることにより、それぞれの前記合成レイアウトが生成され得る。言い換えれば、それぞれの前記合成レイアウトは、それに対応するそれぞれの前記レア物体バウンディングボックスと、前記背景物体バウンディングボックスとを含み得る。後から説明されるが、前記背景物体バウンディングボックスと、前記レア物体バウンディングボックスとは、前記背景物体及び前記レア物体に対するクラス情報を参照にして生成される特定識別情報を含み得る。図3に示された特定合成レイアウト203は、前記合成レイアウトの一つの例示と見ることができる。
前記合成レイアウトが作成された後、前記第1判別器300は、前記合成レイアウトそれぞれが非合成であるか、それとも合成であるかに関するそれぞれの確率を計算することにより、それぞれの前記候補群点数を計算するようになる。前記特定合成レイアウト203に対する特定候補群点数を計算する過程を例に挙げれば、前記第1判別器300は、(i)前記特定合成レイアウト203に含まれた特定背景物体バウンディングボックスと、特定レア物体に対する特定識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することができる。すなわち、前記特定合成レイアウトが実際のように(つまり、非合成のように)見えるか否か、すなわち、前記背景物体と、前記レア物体との位置関係が自然に見えるか否かを判断するということである。たとえば、前記特定背景物体バウンディングボックスの前記特定識別情報を分析した結果、前記特定背景物体バウンディングボックスの位置が「床」であると判断され、前記特定レア物体バウンディングボックスが前記特定背景物体バウンディングボックスと同じ高さに位置していると判断されれば、図3で示された前記レア物体イメージ202は、銃を持った強盗であり、前記銃を持った強盗が天井ではなく床に位置していることは自然であるので、前記特定候補群点数は高く設定され得るであろう。前記第1判別器300は、前記生成ニューラルネットワーク200と並列的に学習して、前記特定候補群点数に対してこのような判断をし得る。
具体的には、前記第1判別器300は、前記生成ニューラルネットワーク200によって生成されたそれぞれの前記合成レイアウトだけでなく、それぞれの非合成レイアウト(つまり、実際のレイアウト)を取得し得、前記第1判別器の入力レイアウトそれぞれがそれぞれの前記非合成レイアウトであるか、それともそれぞれの前記合成レイアウトであるかを示す、それぞれの前記非合成レイアウトと、それぞれの前記合成レイアウトとに対応する少なくとも一つのGT(Ground Truth)を取得し得る。以降、前記取得された合成レイアウトと、前記取得された非合成レイアウトと、これに対応するGTとを参照にして、一つ以上のロスが計算され、前記第1判別器300が前記ロスを利用したバックプロパゲーションによって前記入力レイアウトそれぞれが非合成であるか、それとも合成であるかを判断できるように学習され得る。
前記第1判別器300は、前記合成レイアウトのうち、前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスとの間の位置関係が、前記非合成レイアウトの対応要素の位置関係と類似しているものと判断される合成レイアウトに対して候補群点数を高くつけることができる。したがって、候補群点数が最も高い特定位置候補群は、前記レア物体の最適位置に決定され得る。前記最適位置を決定することは、前記合成可否判断不可の合成イメージに対応する合成レイアウトの要素の位置関係が前記非合成レイアウトの対応要素の位置関係と類似しているならば、前記合成可否判断不可の合成イメージが自然に見えるために遂行されるのである。
例示的に、前記特定合成レイアウト203に対応する特定候補群点数が最も高かったと仮定すれば、前記特定合成レイアウト203に対応する前記特定位置候補群が前記最適位置に選定され、前記レア物体イメージ202が前記最適位置に挿入されるであろう。
つまり、前記コンピューティング装置100が、前記生成ニューラルネットワーク200に含まれた前記合成レイヤ220をもって、前記レア物体イメージ202を前記最適位置に挿入することにより、初期合成イメージ204を生成するようにし得る。このように生成された前記初期合成イメージ204だけでも後の過程を遂行するにおいて問題はないが、やや不自然であり得るため、追加的な調整過程が必要なこともある。
これによって、前記コンピューティング装置が100、前記生成ニューラルネットワーク200に含まれた前記調整レイヤを230もって、前記初期合成イメージ204に含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させ得る。前記色値を調整する方式には色々あり得るが、例示的な方式としてコンボリューション演算及びデコンボリューション演算を適用して調整する方式があり得る。
具体的には、前記コンピューティング装置100が、前記調整レイヤ230をもって、前記レア物体イメージ202が挿入された前記初期合成イメージ204上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージ205を生成させ得る。前記コンボリューション演算及び前記デコンボリューション演算が適用されることにより、前記合成可否判断不可の合成イメージ205上で前記レア物体イメージ202が、周りと自然に見えることができる。
前記合成可否判断不可の合成イメージ205をさらに自然に合成するために、前記第2判別器400及び前記物体検出ネットワーク500を利用した学習過程が要求される。以下、前記第2判別器400及び前記物体検出ネットワーク500について説明する。
まず、前記第2判別器400は、その入力イメージが前記合成可否判断不可の合成イメージ205であるか、それとも非合成イメージであるかを区別することにより、少なくとも一つの自然性点数を計算し得る。つまり、前記合成可否判断不可の合成イメージ205が前記非合成イメージのように自然であるか否かを判断するのである。このような機能を遂行するために、前記第2判別器400は、前記生成ニューラルネットワーク200と並列的に学習し得る。
具体的に、前記第2判別器400は、前記生成ニューラルネットワーク200によって生成された前記合成可否判断不可の合成イメージ205だけでなく、前記非合成イメージを取得し得、前記第2判別器400の前記入力イメージが、前記合成可否判断不可の合成イメージ205であるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージ205とに対応する少なくとも一つのGTを取得し得る。以降、前記取得された合成可否判断不可の合成イメージと、前記取得された非合成レイアウトと、これに対応するGTとを参照にして、一つ以上のロスが計算され、前記第2判別器400が前記ロスを利用したバックプロパゲーションによって前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習され得る。この際、ユーザが望む合成イメージの用途に対応する前記非合成のイメージを入力することにより、前記合成可否判断不可の合成イメージの類型をある程度判断することができる。例えば、敵軍の探知のために利用される軍事用監視システムの場合、草むらに潜伏している敵軍を感知することが重要であるため、前記合成可否判断不可の合成イメージにおいても敵軍がよく見える場所に立っている姿ではなく、草むらに潜伏した姿を表すことが望ましい。その際、前記非合成イメージが草むらに隠れている動物を示したものと定める場合、前記合成可否判断不可の合成イメージは、前記のように前記草むらに潜伏している敵軍を示すことができるであろう。この場合、入力された前記非合成イメージに前記レア物体が含まれる必要はない。すなわち、前記例では、前記草むらに潜伏している敵軍を示す非合成トレーニングイメージが必ずしも必要なわけではなく、前記草むらに隠れている動物を示す非合成トレーニングイメージで十分であろう。
次に、前記物体検出ネットワーク500は、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、少なくとも一つの存在点数を計算し得る。追って詳しく説明するが、これは前記学習過程で利用されることにより、前記合成可否判断不可の合成イメージ205が前記レア物体イメージ202を常に含むようにする。このような機能を遂行するために、前記物体検出ネットワーク500は、前記生成ニューラルネットワーク200が前記学習過程を遂行する前に学習された可能性もある。
具体的に、前記物体検出ネットワーク500は、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを取得し得る。以降、前記取得された第1群と、前記学習された第2群と、これに対応するGTとを参照にして一つ以上のロスが計算され、前記物体検出ネットワーク500は、前記ロスを利用したバックプロパゲーションによって前記物体検出ネットワーク500の入力イメージに前記レア物体が含まれる確率を計算できるように学習されていることもある。
このような前記第2判別器400及び前記物体検出ネットワーク500が提供された状態で、前記コンピューティング装置100は、(i)前記第2判別器400によって計算された、前記合成可否判断不可の合成イメージ205に対する前記自然性点数及び(ii)前記物体検出ネットワーク500によって計算された、前記合成可否判断不可の合成イメージ205上の前記物体に対する前記存在点数の中の少なくとも一部を取得し得る。その後、前記コンピューティング装置100は、前記生成ニューラルネットワーク200に含まれた前記ロスレイヤ240をもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワーク200の前記パラメータを学習するようにし得る。この際、前記第1判別器300と、前記第2判別器400と、前記物体検出ネットワーク500と、または前記判別ニューラルネットワーク内の他の構成要素のパラメータは、場合によって前記ロスレイヤ240または他のロスレイヤ(未図示)によって学習され得る。
前記ロスは、前記自然性の点数と、前記存在点数とが上昇する方向で前記合成可否判断不可の合成イメージ205を生成するように、前記生成ニューラルネットワーク200に含まれたレイヤのパラメータを調整する役割を遂行する。
前記自然性点数が向上すれば、前記合成可否判断不可の合成イメージ205の様々な特性が前記非合成イメージと類似して前記合成可否判断不可の合成イメージ205が自然に見え、前記合成可否判断不可の合成イメージ205が自然に見えるなら、前記監視システムに入力された際に良い結果が出るものと予想される。
また、前記存在点数が向上すれば、前記生成ニューラルネットワーク200が誤った方向に学習される可能性が減少するであろう。もし、前記第1判別器300及び第2判別器400のみを利用して、前記生成ニューラルネットワーク200を学習する場合、単に前記合成可否判断不可の合成イメージ205の自然さだけが追求されたため、前記レア物体イメージ202を挿入しない方向に学習され得る。つまり、前記合成可否判断不可のイメージ205を自然に見えるように生成する最も簡単な方法は、前記合成可否判断不可のイメージ205が前記レア物体イメージ202なしに前記背景イメージ201だけを有するようにすることであるため、このような状況が発生しうるが、前記物体検出ネットワーク500を共に利用することでこのような状況を防止し得る。前記存在点数が上昇する方向で学習することにより、前記合成可否判断不可のイメージ205は、前記レア物体イメージ202を常に含み得る。
前記生成ニューラルネットワーク200は、多数の合成可否判断不可のイメージを生成して前述のような前記過程を複数回経て、これによって前記生成ニューラルネットワーク200と、前記第1判別器300と、前記第2判別器400とが並列的に学習され得り、このように前記要素が、並列的・競争的に学習する前記GANを採択することにより最適化されたテスト用合成可否判断不可のイメージが生成され得る。以下のテスティング過程について説明する。
参考までに、以下の説明において混乱を避けるために、前記学習過程に関連する用語には「学習用」または「トレーニング」という単語が追加され、前記テスティング過程に関連する用語には「テスト用」または「テスティング」という単語が追加された。
前記コンピューティング装置100が、(1)前記合成可否判断不可の合成トレーニングイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワーク200に含まれた前記位置指定レイヤ210をもって、前記レア物体イメージが挿入される前記背景イメージ上での前記学習用レア物体の一つ以上の学習用位置の候補群を生成するようにし、前記第1判別器300によって計算された、それぞれの前記学習用位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤ210をもって、前記学習用候補群点数を参考にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定場所候補群を前記学習用レア物体の最適位置に選択するようにし、(2)前記生成ニューラルネットワーク200に含まれた前記合成レイヤ220をもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワーク200に含まれた前記調整レイヤ230をもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)前記第2判別器400によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワーク500によって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体の学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワーク200に含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、テスティング(未図示)が、前記生成ニューラルネットワーク200に含まれた前記位置指定レイヤ210をもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成するようにし、前記第1判別器300によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤ210をもって、前記テスト用候補群点数を参照にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択させることができる。
次に、前記テスティング装置は、前記生成ニューラルネットワーク200に含まれた前記合成レイヤ220をもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにし得る。
その後、前記テスティング装置が、前記生成ニューラルネットワーク200に含まれた調整レイヤ230をもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させることができる。
このようなテスティング過程は、前述したように、図2に示された前記生成ニューラルネットワーク200で前記ロスレイヤ240が除外された前記テスティング装置によって遂行され得る。
本発明技術分野の通常の技術者に理解され、前記で説明されたイメージ、例えば原本イメージ及び原本レーブル及び追加レーブルといったイメージデータの送受信がコンピューティング装置及びテスト装置の各通信部によって行われ得、特徴マップと演算を遂行するためのデータがコンピューティング装置及びテスト装置のプロセッサ(及び/またはメモリ)によって保有/維持され得、コンボリューション演算、デコンボリューション演算、ロス値の演算過程が主にコンピューティング装置及びテスティング装置のプロセッサにより遂行され得るが、本発明はこれに限定されるものではない。
また、本方法に係る前記方法は、3Dマップ、GPS、スマートフォン、V2X通信などを利用して歩行者補助システム及び経路の設定にも適用され得る。
また、以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて遂行できるプログラム命令語の形態で実装されてコンピュータ読取り可能な記録媒体に記録され得る。前記コンピュータで読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含まれ得る。前記コンピュータ判読可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものか、コンピュータソフトウェア分野の当業者に公知となって使用可能なものでもよい。コンピュータで判読可能な記録媒体の例には、ハードディスク、フロッピィディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(flopticaldisk)のような磁気光媒体(magneto−opticalmedia)、およびROM、RAM、フラッシュメモリなどといったプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その逆も同様である。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (24)

  1. 監視システム(surveillance system)が少なくとも一つのレアイベント(rare event)をより正確に検出できるようにするために、生成ニューラルネットワークと判別ニューラルネットワークとを含む敵対的生成ネットワーク(Generative Adversarial Network,GAN)を利用して、少なくとも一つの合成可否判断不可の合成イメージを生成する方法において、
    (a)コンピューティング装置が、前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置の候補群を生成するようにし、少なくとも一つの第1判別器(discriminator)によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参考にして、前記レア物体の前記位置候補群の中の特定場所候補群を前記レア物体の最適位置に選択するようにする段階;
    (b)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにする段階;及び
    (c)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
    を含むことを特徴とする方法。
  2. 前記(c)段階は、
    前記コンピューティング装置が、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
    を含むことを特徴とする請求項1に記載の方法。
  3. (d)前記コンピューティング装置が、少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにする段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  4. 前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする請求項3に記載の方法。
  5. 前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする請求項3に記載の方法。
  6. 前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGT(Ground Truth)を参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項3に記載の方法。
  7. 前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする請求項3に記載の方法。
  8. 前記(a)段階で、
    前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、
    前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする請求項1に記載の方法。
  9. 前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする請求項8に記載の方法。
  10. 前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項8に記載の方法。
  11. 前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、
    前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする請求項8に記載の方法。
  12. 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージを生成するテスティング方法において、
    (a)学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景トレーニングイメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成させ、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参考にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択するようにして、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、テスティング装置が、前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成させ、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参考にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択するようにする段階;
    (b)前記テスティング装置が、前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにする段階;及び
    (c)前記テスティング装置が、前記生成ニューラルネットワークに含まれた調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
    を含むことを特徴とする方法。
  13. 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して、少なくとも一つの合成可否判断不可の合成テストイメージを生成するコンピューティング装置において、
    各インストラクションを格納する少なくとも一つのメモリ;及び
    (I)前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参照にして、前記レア物体の前記位置候補群の中の特定位置候補群を前記レア物体の最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
    を含むことを特徴とするコンピューティング装置。
  14. 前記(III)プロセスで、
    前記プロセッサが、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させることを特徴とする請求項13に記載のコンピューティング装置。
  15. 前記プロセッサは、
    (IV)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにするプロセス;
    をさらに遂行することを特徴とする請求項13に記載のコンピューティング装置。
  16. 前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする請求項15に記載のコンピューティング装置。
  17. 前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする請求項15に記載のコンピューティング装置。
  18. 前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)前記非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGTを参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項15に記載のコンピューティング装置。
  19. 前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする請求項15に記載のコンピューティング装置。
  20. 前記(I)プロセスで、
    前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、
    前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする請求項13に記載のコンピューティング装置。
  21. 前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする請求項20に記載のコンピューティング装置。
  22. 前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項20に記載のコンピューティング装置。
  23. 前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、
    前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする請求項20に記載のコンピューティング装置。
  24. 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージ生成をテストするためのテスティング方法において、
    各インストラクションを格納する少なくとも一つのメモリ;及び
    学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景イメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参照にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択させ、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、(I)前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成するようにし、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参照にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた前記調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
    を含むことを特徴とするテスティング装置。
JP2020004546A 2019-01-31 2020-01-15 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 Active JP6849898B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/262,980 2019-01-31
US16/262,980 US10325201B1 (en) 2019-01-31 2019-01-31 Method and device for generating deceivable composite image by using GAN including generating neural network and discriminating neural network to allow surveillance system to recognize surroundings and detect rare event more accurately

Publications (2)

Publication Number Publication Date
JP2020126608A JP2020126608A (ja) 2020-08-20
JP6849898B2 true JP6849898B2 (ja) 2021-03-31

Family

ID=66825957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004546A Active JP6849898B2 (ja) 2019-01-31 2020-01-15 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置

Country Status (5)

Country Link
US (1) US10325201B1 (ja)
EP (1) EP3690705B1 (ja)
JP (1) JP6849898B2 (ja)
KR (1) KR102337362B1 (ja)
CN (1) CN111507888B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102082970B1 (ko) * 2019-04-29 2020-02-28 주식회사 루닛 기계학습을 위한 정규화 방법 및 그 장치
WO2020261362A1 (ja) * 2019-06-25 2020-12-30 日本電気株式会社 学習装置、物体検出装置、学習方法、及び、記録媒体
CN110288550B (zh) * 2019-06-28 2020-04-24 中国人民解放军火箭军工程大学 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN110569721B (zh) * 2019-08-01 2023-08-29 平安科技(深圳)有限公司 识别模型训练方法、图像识别方法、装置、设备及介质
CN110853110B (zh) * 2019-09-20 2023-06-30 杭州火烧云科技有限公司 一种基于生成对抗网络的图片自动调色方法
CN111123927A (zh) * 2019-12-20 2020-05-08 北京三快在线科技有限公司 轨迹规划方法、装置、自动驾驶设备和存储介质
CN111339734B (zh) * 2020-02-20 2023-06-30 青岛联合创智科技有限公司 一种基于文本生成图像的方法
CN111861949B (zh) * 2020-04-21 2023-07-04 北京联合大学 一种基于生成对抗网络的多曝光图像融合方法及系统
US20210358164A1 (en) * 2020-05-15 2021-11-18 Nvidia Corporation Content-aware style encoding using neural networks
CN111708055A (zh) * 2020-05-27 2020-09-25 桂林电子科技大学 一种导航欺骗信号检测方法及装置
CN111915545B (zh) * 2020-08-06 2022-07-05 中北大学 一种多波段图像的自监督学习融合方法
KR20220045685A (ko) * 2020-10-06 2022-04-13 삼성전자주식회사 몰입감 있는 Mixed Reality를 제공하기 위한 MR 제공 장치 및 그 제어 방법
CN113194401B (zh) * 2021-03-31 2022-08-09 西安交通大学 一种基于生成式对抗网络的毫米波室内定位方法及系统
KR102371145B1 (ko) 2021-11-10 2022-03-07 주식회사 스누아이랩 이미지 복원을 위한 장치 및 그 장치의 구동방법
CN114900586B (zh) * 2022-04-28 2024-04-16 中国人民武装警察部队工程大学 一种基于dcgan的信息隐写方法及装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9275308B2 (en) * 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
US11593632B2 (en) * 2016-12-15 2023-02-28 WaveOne Inc. Deep learning based on image encoding and decoding
US10013773B1 (en) * 2016-12-16 2018-07-03 Waymo Llc Neural networks for object detection
US10049308B1 (en) * 2017-02-21 2018-08-14 A9.Com, Inc. Synthesizing training data
US10546242B2 (en) * 2017-03-03 2020-01-28 General Electric Company Image analysis neural network systems
US10496895B2 (en) * 2017-03-28 2019-12-03 Facebook, Inc. Generating refined object proposals using deep-learning models
US10268913B2 (en) * 2017-04-03 2019-04-23 General Electric Company Equipment damage prediction system using neural networks
US10482609B2 (en) * 2017-04-04 2019-11-19 General Electric Company Optical flow determination system
US10572979B2 (en) * 2017-04-06 2020-02-25 Pixar Denoising Monte Carlo renderings using machine learning with importance sampling
US10475174B2 (en) * 2017-04-06 2019-11-12 General Electric Company Visual anomaly detection system
US10504220B2 (en) * 2017-05-25 2019-12-10 General Electric Company Neural network feature recognition system
US10210631B1 (en) * 2017-08-18 2019-02-19 Synapse Technology Corporation Generating synthetic image data
US10176405B1 (en) * 2018-06-18 2019-01-08 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations
CN108875833B (zh) * 2018-06-22 2021-07-16 北京儒博科技有限公司 神经网络的训练方法、人脸识别方法及装置

Also Published As

Publication number Publication date
JP2020126608A (ja) 2020-08-20
EP3690705B1 (en) 2024-04-17
US10325201B1 (en) 2019-06-18
CN111507888A (zh) 2020-08-07
KR102337362B1 (ko) 2021-12-10
KR20200095337A (ko) 2020-08-10
CN111507888B (zh) 2024-01-30
EP3690705C0 (en) 2024-04-17
EP3690705A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6849898B2 (ja) 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置
JP6855082B2 (ja) 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置
EP3686787A1 (en) Learning method and learning device for generation of virtual feature maps whose charateristics are same as or similar to those of real feature maps by using gan capable of being applied to domain adaptation to be used in virtual driving environments
KR102296507B1 (ko) 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치
JP6875021B2 (ja) 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
JP6857370B2 (ja) ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
US10410120B1 (en) Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same
JP6847463B2 (ja) CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME}
CN111508101B (zh) 通过检测驾驶场景来评估驾驶员的驾驶习惯的方法和装置
KR102301631B1 (ko) 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치
JP6980289B2 (ja) 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same}
JP6846070B2 (ja) 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same}
JP6856854B2 (ja) 多数の車両によるセンサーフュージョン、v2x通信可能なアプリケーションを利用した協業走行のために周囲に位置するカメラそれぞれに対応するそれぞれの物体検出器によって検出される物体検出情報を統合する方法及び装置
JP6979228B2 (ja) V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same}
CN111508252B (zh) 利用v2x信息集成技术更新高清地图的方法和装置
WO2021095351A1 (ja) 監視装置、監視方法、及びプログラム
JP2020123346A (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
US10402686B1 (en) Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same
JP6903352B2 (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
KR102313129B1 (ko) 자율 주행에 대한 논리적 근거를 제시하기 위하여, 관리자가 객체 검출기의 객체 검출 프로세스를 평가할 수 있도록 지원하는 방법 및 장치
JP6869561B2 (ja) ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置
US20240185605A1 (en) System and Method for Detecting and Explaining Anomalies in Video of a Scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210210

R150 Certificate of patent or registration of utility model

Ref document number: 6849898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250