JP6849898B2 - 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 - Google Patents
生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 Download PDFInfo
- Publication number
- JP6849898B2 JP6849898B2 JP2020004546A JP2020004546A JP6849898B2 JP 6849898 B2 JP6849898 B2 JP 6849898B2 JP 2020004546 A JP2020004546 A JP 2020004546A JP 2020004546 A JP2020004546 A JP 2020004546A JP 6849898 B2 JP6849898 B2 JP 6849898B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- composite
- rare
- test
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002131 composite material Substances 0.000 title claims description 244
- 238000013528 artificial neural network Methods 0.000 title claims description 124
- 238000000034 method Methods 0.000 title claims description 71
- 238000012360 testing method Methods 0.000 claims description 146
- 238000012549 training Methods 0.000 claims description 70
- 230000015572 biosynthetic process Effects 0.000 claims description 64
- 238000003786 synthesis reaction Methods 0.000 claims description 64
- 238000001514 detection method Methods 0.000 claims description 37
- 239000000203 mixture Substances 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 31
- 238000012544 monitoring process Methods 0.000 claims description 15
- 230000001537 neural effect Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 244000025254 Cannabis sativa Species 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000009545 invasion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
一例として、前記(III)プロセスで、前記プロセッサが、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させることを特徴とする。
Claims (24)
- 監視システム(surveillance system)が少なくとも一つのレアイベント(rare event)をより正確に検出できるようにするために、生成ニューラルネットワークと判別ニューラルネットワークとを含む敵対的生成ネットワーク(Generative Adversarial Network,GAN)を利用して、少なくとも一つの合成可否判断不可の合成イメージを生成する方法において、
(a)コンピューティング装置が、前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置の候補群を生成するようにし、少なくとも一つの第1判別器(discriminator)によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参考にして、前記レア物体の前記位置候補群の中の特定場所候補群を前記レア物体の最適位置に選択するようにする段階;
(b)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにする段階;及び
(c)前記コンピューティング装置が、前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
を含むことを特徴とする方法。 - 前記(c)段階は、
前記コンピューティング装置が、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
を含むことを特徴とする請求項1に記載の方法。 - (d)前記コンピューティング装置が、少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにする段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする請求項3に記載の方法。
- 前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする請求項3に記載の方法。
- 前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGT(Ground Truth)を参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項3に記載の方法。
- 前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする請求項3に記載の方法。
- 前記(a)段階で、
前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、
前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする請求項1に記載の方法。 - 前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする請求項8に記載の方法。
- 前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項8に記載の方法。
- 前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、
前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする請求項8に記載の方法。 - 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージを生成するテスティング方法において、
(a)学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景トレーニングイメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成させ、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参考にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択するようにして、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、テスティング装置が、前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成させ、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参考にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択するようにする段階;
(b)前記テスティング装置が、前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにする段階;及び
(c)前記テスティング装置が、前記生成ニューラルネットワークに含まれた調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させる段階;
を含むことを特徴とする方法。 - 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して、少なくとも一つの合成可否判断不可の合成テストイメージを生成するコンピューティング装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記合成可否判断不可の合成イメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景イメージと、前記レアイベントに対応する少なくとも一つのレア物体の少なくとも一つのレア物体イメージとが取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体イメージが挿入される前記背景イメージ上での前記レア物体の一つ以上の位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記位置候補群に対応する候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記候補群点数を参照にして、前記レア物体の前記位置候補群の中の特定位置候補群を前記レア物体の最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体イメージを前記最適位置に挿入することにより少なくとも一つの初期合成イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成イメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記(III)プロセスで、
前記プロセッサが、前記調整レイヤをもって、前記レア物体イメージが挿入された前記初期合成イメージ上の少なくとも一部に対応する、少なくとも一つの特定領域に少なくとも一つのコンボリューション演算と、少なくとも一つのデコンボレーション演算とを適用させることにより、前記合成可否判断不可の合成イメージを生成させることを特徴とする請求項13に記載のコンピューティング装置。 - 前記プロセッサは、
(IV)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成イメージに対する少なくとも一つの自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成イメージ上の前記レア物体に対する少なくとも一つの存在点数との中の少なくとも一部が取得されると、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習するようにするプロセス;
をさらに遂行することを特徴とする請求項13に記載のコンピューティング装置。 - 前記第2判別器は、その入力イメージが前記合成可否判断不可の合成イメージであるか、それとも非合成イメージであるかを区別することにより、前記自然性点数を計算することを特徴とする請求項15に記載のコンピューティング装置。
- 前記物体検出ネットワークは、前記合成可否判断不可の合成イメージ上に前記レア物体が存在する確率を判断することにより、前記存在点数を計算することを特徴とする請求項15に記載のコンピューティング装置。
- 前記第2判別器は、(i)前記合成可否判断不可の合成イメージ、(ii)前記非合成イメージ、及び(iii)前記第2判別器の入力イメージが前記合成可否判断不可の合成イメージであるか、それとも前記非合成イメージであるかを示す、前記非合成イメージと、前記合成可否判断不可の合成イメージに対応する少なくとも一つのGTを参照にして、前記入力イメージが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項15に記載のコンピューティング装置。
- 前記物体検出ネットワークは、(i)前記レア物体含む第1群トレーニングイメージ、(ii)前記レア物体を含んでいない第2群トレーニングイメージ、及び(iii)前記物体検出ネットワークの入力イメージが前記レア物体を含んでいるか否かを示す、前記第1群と前記第2群とに対応する少なくとも一つのGTを参照にして、前記入力イメージに前記レア物体が含まれている確率を計算できるように学習されていることを特徴とする請求項15に記載のコンピューティング装置。
- 前記(I)プロセスで、
前記位置指定レイヤが、(i)前記背景イメージ上の背景物体を含む一つ以上の背景物体バウンディングボックスを生成し、(ii)それぞれの前記位置候補群上の前記レア物体に対応するレア物体バウンディングボックスそれぞれを追加的に生成することにより、前記背景イメージ上にそれぞれの合成レイアウトを生成し、
前記第1判別器が、前記合成レイアウトのうち、少なくとも一部を参照にして、前記候補群点数それぞれを計算することを特徴とする請求項13に記載のコンピューティング装置。 - 前記第1判別器は、前記合成レイアウトそれぞれが非合成または合成であると判断される確率を計算することにより、前記候補群点数それぞれを計算することを特徴とする請求項20に記載のコンピューティング装置。
- 前記第1判別器は、(i)それぞれの前記合成レイアウト、(ii)それぞれの非合成レイアウト及び(iii)前記第1判別器の入力レイアウトそれぞれが、前記非合成レイアウトであるか、それとも前記合成レイアウトであるかを示す、それぞれの前記合成レイアウトとそれぞれの非合成レイアウトとに対応する少なくとも一つのGTを参照にして、前記入力レイアウトが非合成であるか、それとも合成であるかを判断できるように学習されることを特徴とする請求項20に記載のコンピューティング装置。
- 前記合成レイアウトのうち、特定合成レイアウトに含まれた、特定背景物体バウンディングボックスと、特定レア物体バウンディングボックスとは、特定背景物体及び特定レア物体に関するクラス情報を参照して生成された特定識別情報を含み、
前記第1判別器は(i)前記識別情報及び(ii)前記特定背景物体バウンディングボックスと、前記特定レア物体バウンディングボックスの位置に関する関係情報とを参照して、特定候補群点数を計算することを特徴とする請求項20に記載のコンピューティング装置。 - 監視システムが、少なくとも一つのレアイベントをより正確に検出できるようにするために、生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワーク(GAN)を利用して少なくとも一つの合成可否判断不可の合成テストイメージ生成をテストするためのテスティング方法において、
各インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(1)合成可否判断不可の合成トレーニングイメージ上で、レアイベントの背景に利用される少なくとも一つの背景トレーニングイメージと、前記レアイベントに対応する少なくとも一つの学習用レア物体の少なくとも一つのレア物体トレーニングイメージとを取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つの位置指定レイヤをもって、前記レア物体トレーニングイメージが挿入される前記背景イメージ上での前記学習用レア物体の一つ以上の学習用位置候補群を生成するようにし、少なくとも一つの第1判別器によって計算された、それぞれの前記学習用位置候補群に対応する学習用候補群点数それぞれが取得された後、前記位置指定レイヤをもって、前記学習用候補群点数を参照にして、前記学習用レア物体の前記学習用位置候補群の中の学習用特定位置候補群を前記学習用レア物体の学習用最適位置に選択させ、(2)前記生成ニューラルネットワークに含まれた少なくとも一つの合成レイヤをもって、前記レア物体トレーニングイメージを前記学習用最適位置に挿入することにより少なくとも一つの初期合成トレーニングイメージを生成するようにし、(3)前記生成ニューラルネットワークに含まれた少なくとも一つの調整レイヤをもって、前記初期合成トレーニングイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応する学習用色値を調整させることにより、前記合成可否判断不可の合成トレーニングイメージを生成させ、(4)少なくとも一つの第2判別器によって計算された前記合成可否判断不可の合成トレーニングイメージに対する少なくとも一つの学習用自然性点数と、物体検出ネットワークによって計算された前記合成可否判断不可の合成トレーニングイメージ上の前記学習用レア物体に対する少なくとも一つの学習用存在点数との中の少なくとも一部を取得した後、前記生成ニューラルネットワークに含まれた少なくとも一つのロスレイヤをもって、前記学習用自然性点数と、前記存在点数との中の少なくとも一部を参照にして一つ以上のロスを計算し、前記ロスをバックプロパゲーションすることで前記生成ニューラルネットワークの一つ以上のパラメータの中の少なくとも一部を学習した状態で、(I)前記合成可否判断不可の合成テストイメージ上で、前記レアイベントの背景に利用される少なくとも一つの背景テストイメージと、前記レアイベントに対応する少なくとも一つのテスト用レア物体の少なくとも一つのレア物体テストイメージとが取得されると、前記生成ニューラルネットワークに含まれた前記位置指定レイヤをもって、前記レア物体テストイメージが挿入される前記背景テストイメージ上での前記テスト用レア物体の一つ以上のテスト用位置候補群を生成するようにし、前記第1判別器によって計算された、それぞれの前記テスト用位置候補群に対応するテスト用候補群点数それぞれが取得されると、前記位置指定レイヤをもって、前記テスト用候補群点数を参照にして、前記テスト用レア物体の前記テスト用位置候補群の中のテスト用特定位置候補群を前記テスト用レア物体のテスト用最適位置に選択させるプロセス、(II)前記生成ニューラルネットワークに含まれた前記合成レイヤをもって、前記レア物体テストイメージを前記テスト用最適位置に挿入することにより少なくとも一つの初期合成テスト用イメージを生成するようにするプロセス、(III)前記生成ニューラルネットワークに含まれた前記調整レイヤをもって、前記初期合成テストイメージに含まれたそれぞれのピクセルのうち少なくとも一部に対応するテスト用色値を調整させることにより、前記合成可否判断不可の合成イメージを生成させるプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするテスティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/262,980 | 2019-01-31 | ||
US16/262,980 US10325201B1 (en) | 2019-01-31 | 2019-01-31 | Method and device for generating deceivable composite image by using GAN including generating neural network and discriminating neural network to allow surveillance system to recognize surroundings and detect rare event more accurately |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126608A JP2020126608A (ja) | 2020-08-20 |
JP6849898B2 true JP6849898B2 (ja) | 2021-03-31 |
Family
ID=66825957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004546A Active JP6849898B2 (ja) | 2019-01-31 | 2020-01-15 | 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10325201B1 (ja) |
EP (1) | EP3690705B1 (ja) |
JP (1) | JP6849898B2 (ja) |
KR (1) | KR102337362B1 (ja) |
CN (1) | CN111507888B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102082970B1 (ko) * | 2019-04-29 | 2020-02-28 | 주식회사 루닛 | 기계학습을 위한 정규화 방법 및 그 장치 |
WO2020261362A1 (ja) * | 2019-06-25 | 2020-12-30 | 日本電気株式会社 | 学習装置、物体検出装置、学習方法、及び、記録媒体 |
CN110288550B (zh) * | 2019-06-28 | 2020-04-24 | 中国人民解放军火箭军工程大学 | 基于先验知识引导条件生成对抗网络的单张图像去雾方法 |
CN110569721B (zh) * | 2019-08-01 | 2023-08-29 | 平安科技(深圳)有限公司 | 识别模型训练方法、图像识别方法、装置、设备及介质 |
CN110853110B (zh) * | 2019-09-20 | 2023-06-30 | 杭州火烧云科技有限公司 | 一种基于生成对抗网络的图片自动调色方法 |
CN111123927A (zh) * | 2019-12-20 | 2020-05-08 | 北京三快在线科技有限公司 | 轨迹规划方法、装置、自动驾驶设备和存储介质 |
CN111339734B (zh) * | 2020-02-20 | 2023-06-30 | 青岛联合创智科技有限公司 | 一种基于文本生成图像的方法 |
CN111861949B (zh) * | 2020-04-21 | 2023-07-04 | 北京联合大学 | 一种基于生成对抗网络的多曝光图像融合方法及系统 |
US20210358164A1 (en) * | 2020-05-15 | 2021-11-18 | Nvidia Corporation | Content-aware style encoding using neural networks |
CN111708055A (zh) * | 2020-05-27 | 2020-09-25 | 桂林电子科技大学 | 一种导航欺骗信号检测方法及装置 |
CN111915545B (zh) * | 2020-08-06 | 2022-07-05 | 中北大学 | 一种多波段图像的自监督学习融合方法 |
KR20220045685A (ko) * | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 몰입감 있는 Mixed Reality를 제공하기 위한 MR 제공 장치 및 그 제어 방법 |
CN113194401B (zh) * | 2021-03-31 | 2022-08-09 | 西安交通大学 | 一种基于生成式对抗网络的毫米波室内定位方法及系统 |
KR102371145B1 (ko) | 2021-11-10 | 2022-03-07 | 주식회사 스누아이랩 | 이미지 복원을 위한 장치 및 그 장치의 구동방법 |
CN114900586B (zh) * | 2022-04-28 | 2024-04-16 | 中国人民武装警察部队工程大学 | 一种基于dcgan的信息隐写方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9275308B2 (en) * | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
US11593632B2 (en) * | 2016-12-15 | 2023-02-28 | WaveOne Inc. | Deep learning based on image encoding and decoding |
US10013773B1 (en) * | 2016-12-16 | 2018-07-03 | Waymo Llc | Neural networks for object detection |
US10049308B1 (en) * | 2017-02-21 | 2018-08-14 | A9.Com, Inc. | Synthesizing training data |
US10546242B2 (en) * | 2017-03-03 | 2020-01-28 | General Electric Company | Image analysis neural network systems |
US10496895B2 (en) * | 2017-03-28 | 2019-12-03 | Facebook, Inc. | Generating refined object proposals using deep-learning models |
US10268913B2 (en) * | 2017-04-03 | 2019-04-23 | General Electric Company | Equipment damage prediction system using neural networks |
US10482609B2 (en) * | 2017-04-04 | 2019-11-19 | General Electric Company | Optical flow determination system |
US10572979B2 (en) * | 2017-04-06 | 2020-02-25 | Pixar | Denoising Monte Carlo renderings using machine learning with importance sampling |
US10475174B2 (en) * | 2017-04-06 | 2019-11-12 | General Electric Company | Visual anomaly detection system |
US10504220B2 (en) * | 2017-05-25 | 2019-12-10 | General Electric Company | Neural network feature recognition system |
US10210631B1 (en) * | 2017-08-18 | 2019-02-19 | Synapse Technology Corporation | Generating synthetic image data |
US10176405B1 (en) * | 2018-06-18 | 2019-01-08 | Inception Institute Of Artificial Intelligence | Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations |
CN108875833B (zh) * | 2018-06-22 | 2021-07-16 | 北京儒博科技有限公司 | 神经网络的训练方法、人脸识别方法及装置 |
-
2019
- 2019-01-31 US US16/262,980 patent/US10325201B1/en active Active
- 2019-11-15 KR KR1020190147102A patent/KR102337362B1/ko active IP Right Grant
-
2020
- 2020-01-08 EP EP20150698.7A patent/EP3690705B1/en active Active
- 2020-01-15 JP JP2020004546A patent/JP6849898B2/ja active Active
- 2020-01-19 CN CN202010061065.2A patent/CN111507888B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020126608A (ja) | 2020-08-20 |
EP3690705B1 (en) | 2024-04-17 |
US10325201B1 (en) | 2019-06-18 |
CN111507888A (zh) | 2020-08-07 |
KR102337362B1 (ko) | 2021-12-10 |
KR20200095337A (ko) | 2020-08-10 |
CN111507888B (zh) | 2024-01-30 |
EP3690705C0 (en) | 2024-04-17 |
EP3690705A1 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6849898B2 (ja) | 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 | |
JP6855082B2 (ja) | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 | |
EP3686787A1 (en) | Learning method and learning device for generation of virtual feature maps whose charateristics are same as or similar to those of real feature maps by using gan capable of being applied to domain adaptation to be used in virtual driving environments | |
KR102296507B1 (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6857370B2 (ja) | ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
US10410120B1 (en) | Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
CN111508101B (zh) | 通过检测驾驶场景来评估驾驶员的驾驶习惯的方法和装置 | |
KR102301631B1 (ko) | 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치 | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6846070B2 (ja) | 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same} | |
JP6856854B2 (ja) | 多数の車両によるセンサーフュージョン、v2x通信可能なアプリケーションを利用した協業走行のために周囲に位置するカメラそれぞれに対応するそれぞれの物体検出器によって検出される物体検出情報を統合する方法及び装置 | |
JP6979228B2 (ja) | V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same} | |
CN111508252B (zh) | 利用v2x信息集成技术更新高清地图的方法和装置 | |
WO2021095351A1 (ja) | 監視装置、監視方法、及びプログラム | |
JP2020123346A (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
US10402686B1 (en) | Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
KR102313129B1 (ko) | 자율 주행에 대한 논리적 근거를 제시하기 위하여, 관리자가 객체 검출기의 객체 검출 프로세스를 평가할 수 있도록 지원하는 방법 및 장치 | |
JP6869561B2 (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
US20240185605A1 (en) | System and Method for Detecting and Explaining Anomalies in Video of a Scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6849898 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |