JP6983800B2 - ニューラルネットワークにおける強化学習によるユニーク/希少なケースの分類のための方法 - Google Patents
ニューラルネットワークにおける強化学習によるユニーク/希少なケースの分類のための方法 Download PDFInfo
- Publication number
- JP6983800B2 JP6983800B2 JP2018549257A JP2018549257A JP6983800B2 JP 6983800 B2 JP6983800 B2 JP 6983800B2 JP 2018549257 A JP2018549257 A JP 2018549257A JP 2018549257 A JP2018549257 A JP 2018549257A JP 6983800 B2 JP6983800 B2 JP 6983800B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- data
- dnn
- neural network
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 93
- 238000000034 method Methods 0.000 title claims description 39
- 230000002787 reinforcement Effects 0.000 title description 24
- 238000012549 training Methods 0.000 claims description 49
- 239000011159 matrix material Substances 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 24
- 230000000007 visual effect Effects 0.000 claims description 23
- 238000010168 coupling process Methods 0.000 claims description 17
- 238000005859 coupling reaction Methods 0.000 claims description 17
- 230000008878 coupling Effects 0.000 claims description 16
- 238000003672 processing method Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 12
- 238000007637 random forest analysis Methods 0.000 claims description 12
- 230000004807 localization Effects 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims 1
- 230000004913 activation Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011045 prefiltration Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008080 stochastic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
。第2に、初期段階において、この方法は決定空間を局所的に改善することができるが、識別モデルの評価からのフィードバックが弱いためにその未知の領域を効率的に探索することができず、補強プロセスの高速飽和につながるであろう。
かったが初期訓練中に利用可能なデータサンプルに視覚的に類似するデータサンプルの誤分類を回避する深層ニューラルネットワークを用いて、大きく解決することができるが、訓練中に使用されなかった視覚的に類似していないデータサンプルに対する精度を矛盾なく向上させることはできない。1つの解決策は、ラベル付けされたデータの非常に大きいデータセットを使用して、視覚的に類似していない見えないデータサンプルの数を最小化することに基づく可能性があるが、これは、実際にはほとんど不可能な指数関数的に高価なデータ収集タスクである。
−画像データを元データ(Data−A)として取り込むステップと、
−元データ(Data−A)よりも高いスケールでラベル付けされていないデータ(Data−C)としてラベル付けされていない画像を供給するステップと、
−取り込まれた画像データの間で希少なケースを分類するように深層ニューラルネットワーク学習能力を強化するステップであって、
−前記元データ(Data−A)の一般的なケースを指定されたラベル(Label−A)に分類するために使用される第1の深層ニューラルネットワーク(DNN−A)を訓練するサブステップと、
−第1の深層ニューラルネットワークを介して処理された元データ内の識別クラス固有特徴を局所化し、識別クラス固有特徴を空間確率ラベル(Label−B)としてマッピングするサブステップと、
−元データの希少なケースを空間確率ラベルに分類するために使用される第2の深層ニューラルネットワーク(DNN−C)を訓練するサブステップと、
−元データの一般的なケースと希少なケースの両方を1次結合指定および空間確率ラベル(Label−A+B*)に分類するために使用される結合深層ニューラルネットワーク(DNN−D)を訓練するサブステップと
を備えるステップと
を備える、画像処理方法に関する。
−一般的なケースおよび希少なケースを含む元データならびに指定されたラベル(Label−A)を供給することによって第1の深層ニューラルネットワーク(DNN−A)を訓練し、元データの一般的なケースを指定されたラベルに分類するために使用される少なくとも1つのクラス固有特徴空間および少なくとも1つの決定空間を出力するステップと、
−第1の深層ニューラルネットワークの前記少なくとも1つのクラス固有特徴空間を介して処理された元データ内の識別クラス固有特徴(HEAT−B)を局所化し、識別クラス固有特徴を空間確率ラベル(Label−B)として元データにマッピングするステップと、
−元データおよび前記空間確率ラベルを供給することによって第2の深層ニューラルネットワーク(DNN−C)を訓練し、元データの希少なケースを(サイズ変更された)空間確率ラベル(Label−B*)に分類するために使用される、少なくとも1つの汎用特徴(すなわち、非クラス固有特徴)空間および少なくとも1つの汎用決定(すなわち、非クラス固有決定)空間を出力するステップと、
−元データ、指定されたラベル(Label−A)、および空間確率ラベル(Label−B*)を供給することによって第1の結合深層ニューラルネットワーク(DNN−D
)を訓練し、元データの一般的なケースと希少なケースの両方を1次結合指定および空間確率ラベル(Label−A+B*)に分類するために使用される、1次結合クラス固有および汎用特徴/決定空間を出力するステップと、
−ラベル付けされていないデータ(Data−C)を供給することによって前記結合深層ニューラルネットワーク(DNN−D)をさらに訓練し、ラベル付けされていないデータを1次結合指定および空間確率ラベル(Label−A+B*)に分類し、1次結合指定および空間確率ラベル(Label−A+B*)を2次結合指定および空間確率誤分類ラベル(Label−C)にマッピングするステップと、
−ラベル付けされていないデータ(Data−C)、2次誤分類ラベル(Label−C)、およびペナルティ行列を供給することによって第2の結合深層ニューラルネットワーク(DNN−F)を訓練し、ペナルティ行列に従って、ラベル付けされていないデータ(Data−C)の一般的なケースと希少なケースの両方を2次誤分類ラベル(Label−C)に分類するために使用される2次結合決定および特徴(FC−C→A→D→F;Conv−C→A→D→F)空間を出力するステップと、
−取り込まれたれた画像に基づいて一般的なケースおよび希少なケースを分類するステップと
を備える。
ラベルの選択されたペアの間の誤分類の優先重要度に関する人間の知識は、ペナルティ行列の形態で導入され、それは、(ペナルティ行列内のラベルの各ペアの間の誤分類に対
するペナルティとして定義される)アプリケーションレベルのリスクの事前推定に従って、希少な/ユニークなケースごとに将来の誤分類ミスを再調整するように、訓練に使用されるラベル付けされていないデータサンプルの分布を制御するために使用される。そのようなペナルティ行列は、訓練段階の前に自動的に定義されるか、強化ループの各反復において人間の専門家によって再定義される可能性がある。
−前記少なくとも1つのクラス固有特徴空間を介して処理された元データのパッチをランダムに抽出するステップと、
−同じ指定されたラベル(Label−A)のすべてのパッチの中から、それらの統計的な人気度によってランダムに抽出されたパッチをランク付けするステップと、
−上位ランクのパッチから始まるビジュアルワード特徴を袋詰めするステップと、
−ビジュアルワード特徴の袋をランダムフォレストツリー分類するステップと、
−識別クラス固有特徴を局所化し、それらの相対的な重要度を推定するために、ランダムフォレストツリー分類を使用して変数重要度測定値を抽出するステップと
から構成される。
−空間確率ラベル(Label−B)をサイズ変更するステップと、
−汎用損失関数によって生成されたフィードバックの後方伝播を介して汎用特徴および決定空間を学習するために、対応するサイズ変更された空間確率ラベルを有する元データのバッチ(またはミニバッチ)を作成するステップと、
−指定されたラベル(Label−A)とは関係なく、識別クラス固有特徴の局所化および確率を推定するステップと、
・元データの希少なケースをサイズ変更された空間確率ラベル(Label−B*)に分類するステップと
をさらに含む。
第2の深層ニューラルネットワークのそのような訓練ステップは、識別クラス固有特徴に対応する汎用特徴/決定空間を学習し、希少なケースをサイズ変更された空間確率ラベルに分類するために、前のステップから受け取ったヒートマップをサイズ変更することを
保証する。
−少なくとも1つの汎用特徴空間および少なくとも1つのクラス固有特徴空間を、異なる学習率を有する1次結合クラス固有および汎用特徴空間を形成する少なくとも1つの統合特徴空間に結合するステップと、
−少なくとも1つの汎用決定空間および少なくとも1つのクラス固有決定空間を、1次結合クラス固有および汎用決定空間を形成する少なくとも1つの統合決定空間に結合するステップと、
−第2の深層ニューラルネットワークの汎用損失関数および第1の深層ニューラルネットワークのクラス固有損失関数の結合損失関数を使用して、1次結合指定および空間確率ラベル(Label−A+B*)から任意のラベルに属する元データに対するフィードバックを提供するステップと
をさらに含む。
汎用およびクラス固有特徴/決定空間の結合または融合により、任意の種類のラベル付けされた、またはラベル付けされていないデータを用いてそのような結合深層ニューラルネットワークを訓練することが可能になる。
−訓練された第1の結合深層ニューラルネットワーク(DNN−D)から開始するステップと、
−ネットワークの能力を向上させて新たに学習された特徴および決定をホストする目的で、必要に応じて隠れレイヤを追加することによって特徴空間および決定空間を拡張するステップと、
−ペナルティ行列に基づいて誤分類に対するより高いペナルティを有する、希少なケースに対してより多くのデータサンプルを使用することにより、第2の結合深層ニューラルネットワークの損失関数またはラベル付けされていないデータのバッチを修正するステップと
をさらに含む。
−一般的なケースと希少なケース、指定されたラベル(Label−A)、およびペナ
ルティ行列を含む元データ(Data−A)を供給すること、ならびに
−ペナルティ行列に従って、元データの一般的なケースと希少なケースの両方を指定されたラベルに分類するために使用される1次結合決定および特徴空間を出力すること
−によって、第3の結合深層ニューラルネットワーク(DNN−G)を訓練するステップ
をさらに備える。
−ラベル付けされていないデータ(Data−C)および2次誤分類ラベル(Label−C)に対して訓練された第2の結合深層ニューラルネットワーク(DNN−F)から開始するステップと、
−隠れレイヤを追加することによって特徴空間および決定空間を拡張するステップと、
−ペナルティ行列に基づいて誤分類に対するより高いペナルティを有する、希少なケースに対してより多くのデータサンプルを使用することにより、第3の結合深層ニューラルネットワークの損失関数(Loss−A)またはラベル付けされていないデータのバッチを修正するステップと
をさらに含む。
第3の結合深層ニューラルネットワーク(DNN−G)の訓練ステップは、入力されたラベル付けされていないデータを間違いのサブラベルに分類することができる、訓練された第2の結合深層ニューラルネットワーク(DNN−F)から転送された知識を使用する。この第3の結合深層ニューラルネットワーク(DNN−G)は、初期の深層ニューラルネットワーク(DNN−A)と同じ入力および出力構成を有し、したがって、大きい補強ループを作ることを可能にする。別のユニーク/希少なケースと比較して、ユニーク/希少なケースごとに新しいラベルを訓練するために、より多くの訓練データサンプルを提供することにより、一般的なケースおよび希少なケースをホストする可能性がある特徴/決定空間を構築する方法に関する知識転送の産物である、最終(第3の)結合深層ニューラルネットワークにおける誤分類エラーの将来の分布を制御することが可能になる。各反復の間に、ラベル付けされていないデータからの新しいデータサンプルが学習されるはずなので、補強方法は、最終ネットワーク(DNN−G)のさらなる改善を維持しなければならない。
このように、誤分類の間違いおよびより良い特徴/決定空間の構築を介して見えない/希少なケースの学習を初期化するために使用された、初期深層ニューラルネットワーク(DNN−A)は、したがって、より正確で信頼できるグローバルネットワークと(DNN−AからDNN−Gへ)置き換えることができ、そのようなプロセス全体を再び繰り返すことができる。各補強ループは、前の段階では学習されていない新しい情報を学習することから恩恵を受け、それは、ラベル付けされていないほとんど無制限のソースからもたらされ、したがって、大幅には飽和しない。
「Distilling the Knowledge in a Neural Network」の公開文献とは対照的に、本発明では、以前に学習されたデータサンプルの近くだけでなく、ペナルティ行列によって定義される誤分類のリスクが高い未知の位置
/領域に焦点を当てることにより他の場所でも、ラベル付けされていないデータを使用して、特徴/決定空間を構築することが提案されている。そのような方法で、本発明は、より正確で強固な分類につながる、これまでは希少な/ユニークな/見えないケース、すなわちデータサンプルのための特徴/決定空間のカバレージを大きくかつ高密度にする。
−車両が運転されているときに、少なくとも運転者の視点から見える辿った経路の部分を取り込み、一連のデジタルファイルに変換するように配置された経路取込みユニットと、
−上記の画像処理方法に従って一連のデジタルファイルに基づいて希少なケースを分類するように配置された、深層ニューラルネットワークをホストする処理ユニットと、
−分類された希少なケースに関する情報を表示するように配置された表示ユニットと、
−車両を制御するように配置された自動運転ユニットと、
−分類された希少なケースに応じて、表示ユニットおよび自動運転ユニットのうちの少なくとも1つを作動させるように配置された決定ユニットと
を備える車両に関する。
定的な例の以下の詳細説明からより明らかになる。
図1は、本発明の好ましい実施形態による、希少なケースを分類する能力を学習する、畳み込みニューラルネットワークなどの深層ニューラルネットワーク(DNN)を強化する方法を表す。
に、最終的なパフォーマンスは、以下に起因してマッピングの精度と相関させることができる。より良いマッピングは、より視覚的に類似するラベル付けされていない画像をアンチクラスごとに一緒にグループ化されるようにするはずであり、したがって、より反応が早い特徴/決定は段階E〜Gで学習されるべきであり、一般的なケースと希少なケースの両方を認識する際の最終的な精度が高くなる。
使用できるDNNの一例はlnception−V3であり、さらなる詳細は、http://arxiv.orq/pdf/1512.00567v3.pdfに与えられている。
図2は、第1の深層ニューラルネットワーク(DNN−A)の訓練の段階Aを表す。
供給されるデータは、画像(Data−A)およびタグ(Label−A)であり、x*yの画像は1:Nクラスのインスタンスとしてタグ付けされる。
アルゴリズムはDNN−Aを訓練し、そこで、畳み込みレイヤに関連する特徴空間(Conv−A)と完全に接続されたレイヤに関連する決定空間(FC−A)の両方が、タグ付き画像のミニバッチからの順方向信号を与えられた損失関数(Loss−A)によって生成されるフィードバックの後方伝播を介して構築される。
段階Aの目標は、訓練された特徴/決定空間が、Data−A内の非識別情報をフィルタリングすることであり、それは、次のステップで最も識別可能な情報を見つける事前フィルタとして機能する。
図3は、「プラグイン」画像およびタグの段階B、ならびに段階Aの「再解釈」出力を表す。
供給されるデータは、段階Aと同じ、すなわち画像(Data−A)およびタグ(Label−A)であり、そこで、x*yの画像が1:Nクラスのインスタンスとしてタグ付けされ、段階B向けの入力として強力な活性化のみを維持しながら、画像(data−A)が畳み込みレイヤを通過する。
アルゴリズムは、
−DNN−Aの畳み込みレイヤを介して処理された画像信号の活性化レベルが高いパッチ(Ext−B)のランダム抽出、
−同じクラスのすべてのパッチの中からそれらの統計的人気度によってランダムに抽出されたパッチ(Ext−B)のランク付け(Rank−B)、
−高いランクのパッチ(Rank−B)を使用する(ビジュアル)ワード特徴(BOW−B)の袋詰め、
−(ビジュアル)ワード特徴(BOW−B)変換されたデータの袋のランダムフォレストツリー(RFT−B)分類、
−ランダムフォレストツリー(RFT−B)分類結果を使用して、最も識別可能なパッチを見つけ、それらの相対的重要度を推定する変数重要度(IMP−B)測定、
−最も識別可能なパッチ(IMP−B)の局所化(HEAT−B)および新しい空間確率ラベル(Label−B;ヒートマップx*y)としての元データに対するマッピング
により、クラス固有高度識別特徴の位置を見つける。
段階Bの目標は、ヒートマップが元の画像に関連付けられたラベル付け情報の新しい寸法を加えること(空間確率+指定クラス対指定クラス)である。この情報は、クラス固有情報を削除することにより、汎用特徴空間を作成するために次の段階で使用される。
より具体的には、ランダム抽出パッチは、(たとえば、Conv−AのレイヤNのような)深層ニューラルネットワークの畳み込みレイヤの活性化マップから行うことができる。活性化マップについての説明は、たとえば、http://cs231n.qithub.io/understandinqcnn/から取得することができる。
通常、第1の畳み込みレイヤには64〜96個のフィルタがあり、その結果、パッチランク付けプロセスは64〜96回計算され、より深層の畳み込みレイヤには128〜512個のフィルタがある、などであり、畳み込みレイヤの数は5〜100である。
タ)のみを取ることができる。実際には、ビジュアルワードの5%がサンプルの総数の80%以上に相当する。したがって、全サンプルの20%未満に相当する、ビジュアルワードの残り95%を無視することができる。
変数重要度に関しては、http://www.inside−r.org/packaqes/cran/randomforest/docs/importanceで定義を見つけることができる。
変数重要度を計算するために、様々なフィルタからの特徴ベクトルを一緒に積み重ねることができ、その結果、どのビジュアルワードがそれ自体のフィルタ内で重要であるかだけでなく、すべてのフィルタの中で重要であるかも測定することができる。
図4は、第2の深層ニューラルネットワーク(DNN−C)のトポロジーマッピングの
段階Cを表す。
供給されるデータは、画像(Data−A)および新しい空間確率タグ(Label−B、ヒートマップx*y)である。
アルゴリズムは、
−Label−BからMクラスへのx*yヒートマップをサイズ変更することであって、1/sqrt(M)が空間確率ラベル(Label−B)の解像度である、サイズ変更することと、
−Label−Bからの対応するサイズ変更されたラベルを有するData−Aのミニバッチを作成して、画像クラスに依存しない方法で最も識別可能な特徴(HEAT−B)の位置を推定するようにDNN−Cに促す損失関数(Loss−C)によって生成されたフィードバックの後方伝搬を介して、汎用(非クラス固有)特徴(Conv−C)および決定(FC−C)空間を学習することと
によって、DNN−Cを訓練する。
段階Cの目標は、汎用特徴空間が(段階Aで取得された)クラス固有特徴空間と補間的であることであり、その結果、2つの空間の後の融合がDNNの学習能力を向上させるに違いない。
ミニバッチの作成に関しては、DNNの訓練段階は一連のより小さい段階に分割され、各々のより小さい段階において、データの小さいランダムに選ばれた部分(すなわちミニバッチ)のみが、損失を計算し後方伝搬を行うために使用される。これは、計算の複雑さを大幅に減らし、局所的な最小値を回避することに役立つ。たとえば、各ミニバッチは、1,000,000個以上のうちの200個のランダムに選択されたサンプルから構成することができる。
クラスの様々なオブジェクトの間で共有することができる。段階Cの間、物体の識別部分を局所化し、それらの確率(たとえば、それがどれほど識別可能か)を推定することをDNN−Cに学習させる。この情報がクラス固有であった段階Bと比較して、それは、Label−Bに従って同じクラスMを有するLabel−Aからのすべてのクラスのサンプルを(段階Cにおいて)同じカテゴリに混合することにより、汎用的な情報に変換される。DNN−Cの出力はクラスに依存しない(汎用的)ようになるので、訓練中にそのようなDNN−Cによって学習された特徴も汎用的である。
図5は、1次結合深層ニューラルネットワーク(DNN−D)における1次結合特徴/決定空間の段階Dを表す。
供給されるデータは、画像(Data−A)およびタグ(Label−A;1:Nクラス)およびサイズ変更された空間確率タグ(Label−B*;1:Mクラス)である。
アルゴリズムは、
−初期特徴空間を別のものに歪め、任意に新しいレイヤ(Conv−D)を追加して結合特徴(Conv−C→A→D)を学習するように、AレイヤおよびCレイヤ向けの異なる学習率で事前訓練を使用して、Conv−CおよびConv−Aを統合特徴空間(Conv−C→A)に結合することと、
−結合決定(FC−C→A→D)を学習するために決定空間用の前のステップを繰り返すことと、
−Loss−CおよびLoss−Aの結合損失関数を使用して、M*Nのうちのクラスの1つに属する画像信号ごとにフィードバックを提供することと
によって、DNN−Dを訓練する。
段階Dの目標は、すべての希少なケースが自動的にクラスタリングされ得るように、汎用特徴空間とクラス固有特徴空間の両方を結合することである。DNN−Aによる同じクラス固有クラス(1:N)を有する多くの希少なケースは、DNN−Dによって汎用/クラス固有サブクラス(1:M*N)に繰り返し細分される。さらに、希少なケースが同じクラス特有特徴を提示する場合でも、それらは、希少なケースとは異なるはずのそれらの汎用特徴によって別のケースと識別することができ、次いで、これらの希少なケースでより良く訓練され、したがって精度を高め、誤警報を減らすことに役立つ。
がどれほど重要であるかを定義する。たとえば、高い学習率の場合、後方伝搬は、各訓練反復においてDNN接続をかなり修正するはずである。現在のケースでは、たとえば、第1の隠れレイヤは主にDNN−Cに関連し、より深層の隠れレイヤは主にDNN−Aに関連すると考えることができる。最初の隠れレイヤ向けの学習率を小さくした場合、それらは、ネットワークの他の部分よりも大幅に少なく修正されるはずなので、汎用特徴のほとんどが保持されるはずであると考えることができる。しかし、学習率はゼロではないので、これらの汎用特徴が飽和からの後方伝搬を防ぐためにわずかに適合されることが可能になる。次いで、より深層のレイヤおよび完全に接続されたレイヤ向けのかなり高い学習率を使用した場合、DNN−Cにおいて訓練された重みをほとんど忘れ、新しいラベルM*Nにより良く対応するようにそれらを適合させる。この場合、ラベルはM*Nであるはずなので、ラベルを介して転送学習を有するはずである。
図6は、ラベル付けされていないデータを2次クラスにマッピングする段階Eを表す。
供給されるデータは、画像(Data−A)よりもはるかに高いスケールのラベル付けされていない画像(Data−C)である。
アルゴリズムは、
−DNN−Dを使用して、Data−Cの各ラベル付けされていないデータサンプルに1:M*N汎用/クラス固有タグ(「1次」と呼ばれるLabel−A+B)のうちの1つを割り当てることと、
−「1次」カテゴリ(Label−A+B)から、(DNN−Dによって分類された)同様に見えるすべてのオブジェクトに対してオブジェクトの「1次」カテゴリに割り当てられるべきであるが、実際はこのカテゴリに属していない、以前存在しなかった種類のオブジェクトの「2次」カテゴリにマッピングすることと
によって、Data−Cからラベル付けされていないデータサンプルを分類する。したがって、実際の「1次」カテゴリは、仮想2次カテゴリ(1:M*N)にマッピングされる。
段階Eの目標は、DNN−Dが実際の希少なケース対希少なケースの誤警報を正確に分類するように適切に訓練され得るように、ラベル付けされていないデータ(Data−C)の十分に大きいソースを使用することにより、希少なケースの各「2次」バージョンに関連する十分なデータサンプルを常に見つけることである。
図7は、2次結合深層ニューラルネットワーク(DNN−F)における2次結合特徴/決定空間の段階Fを表す。
供給されるデータは、段階Eで自動的にラベル付けされたデータおよびペナルティ行列から構成される、ラベル付けされていない画像(Data−C)および割り当てられたタグ(Label−C)である。
アルゴリズムは、
−事前訓練されたDNN−Dから開始し、より多くのレイヤを追加することによって特徴空間および決定空間をさらに拡張することと、
−ペナルティ行列で提供されたデータを使用して、誤分類に対するより高いペナルティを有する希少なケースに対してより多くのサンプルを使用することにより、ミニバッチの損失関数または組成を修正することと
によって、DNN−Fを訓練する。
段階Fの出力は、オフラインで定義されたペナルティ行列に従って、高いペナルティを有する希少なケースサンプルのために構築された2次結合特徴/決定空間である。
段階Fの目標は、事前知識、すなわちペナルティ行列に従って、誤警報のリスクレベルが高い頻繁なケースと希少なケースの両方を最も良くホストする特徴/決定空間を作成することである。
ることができ、したがって、誤分類エラーは、他のケースと比較して、このケースの場合10倍のコストがかかり、その結果、後方伝搬段階において、それは任意の他のサンプルよりもニューラルネットワークの重みの更新にかなり大きい影響を及ぼすはずである。別の修正形態は、任意の他のペアのクラスと比較して、クラス1対2の誤分類に関連する希少なケースの場合、10倍のサンプルの使用に関連する可能性がある。このように、特定のクラスのより多くのサンプルを人為的に使用することにより、DNNは、それらを識別するために必要とされる特徴をより良く学習するように強制されるはずである。これにより、この知識が転送されるので、段階Gにおける最終深層ニューラルネットワークによるこれらのエラーのより良い認識がもたらされる。
ペナルティ行列に関しては、それは、たとえばN*N行列であり得るし、ここで、NはLabel−Aからのクラスである。そのような行列は、外部のアプリケーション知識を使用して、システムエンジニアによって定義される。各値は、行と列で定義されたクラスの特定のペア間の誤分類に関連付けられた正規化されたアプリケーションリスクを表す。
図8は、深層畳み込みニューラルネットワーク(DNN−G)においてホストされる「元の」特徴/決定空間を訓練する段階Gを表す。
供給されるデータは、画像(Data−A)およびタグ(Label−A)およびペナルティ行列である。
アルゴリズムは、
−事前訓練されたDNN−Fから開始し、より多くのレイヤを追加することによって特徴空間および決定空間をさらに拡張することと、
−ペナルティ行列で提供されたデータを使用して、誤分類に対するより高いペナルティを有する、希少なケースに対してより多くのサンプルを使用することにより、ミニバッチの損失関数または組成を修正することと
によって、DNN−Gを訓練する。
段階Gの目標は段階Fと同じであり、入力および出力は、補強ループを閉じるためにDNN−Aの元のデータフローと互換性がある。
段階Gに関しては、ペナルティ行列で定義されたプライアに従って段階Fで希少なケースを分類する能力においてもたらされた知識転送のシーケンスを行ったので、このレイヤがDNN−Fの分類結果1:M*Nを1:Nの初期クラス空間に再ルーティングするように、DNN−Fの最後に1つの完全に接続されたレイヤを積み重ねることが望ましい。
車両100は、車両が運転されているときに、少なくとも運転者の視点から見える辿った経路の部分を取り込み、一連のデジタルファイルに変換するように配置された経路取込
みユニット(200;210)を備えている。そのような経路取込みユニットは、移動中に道路の前方を指してビデオまたは連続する一連の画像を撮影する、カメラ200および/またはレーザ光走査ユニット(LIDAR)などの360°走査ユニット210である。
−本発明の画像処理方法に従って、一連のデジタルファイルに基づいて一般的なケースと希少なケースの両方を分類するように配置された、深層ニューラルネットワークをホストする処理ユニットと、
−分類された一般的なケースおよび希少なケースに関する情報を表示するように配置された表示ユニットと、
−車両を制御するように配置された自動運転ユニットと、
−分類された希少なケースに応じて、表示ユニットおよび自動運転ユニットのうちの少なくとも1つを作動させるように配置された決定ユニットと
を備える。
Claims (10)
- 画像データを元データ(Data−A)として取り込むステップと、
元データ(Data−A)よりも多量な、ラベル付けされていないデータ(Data−C)としてラベル付けされていない画像を供給するステップと、
取り込まれた画像データの間で希少なケースを分類するように深層ニューラルネットワーク学習能力を強化するステップであって、
一般的なケースおよび希少なケースを含む前記元データ(Data−A)および指定されたラベル(Label−A)を供給すること、ならびに
前記元データの一般的なケースを前記指定されたラベルに分類するために使用される少なくとも1つのクラス固有特徴空間(Conv−A)および少なくとも1つのクラス固有決定空間(FC−A)を出力すること
によって、第1の深層ニューラルネットワーク(DNN−A)を訓練するサブステップと、
前記第1の深層ニューラルネットワーク(DNN−A)の前記少なくとも1つのクラス固有特徴空間(Conv−A)を介して処理された元データ内の識別クラス固有特徴(HEAT−B)を局所化し、前記識別クラス固有特徴を空間確率ラベル(Label−B)として前記元データにマッピングするサブステップと、
元データ(Data−A)および前記空間確率ラベル(Label−B)を供給すること、ならびに
前記元データ(Data−A)の希少なケースを空間確率ラベル(Label−B*)に分類するために使用される少なくとも1つのクラス汎用特徴(Conv−C)空間および少なくとも1つの汎用決定空間(FC−C)を出力すること
によって、第2の深層ニューラルネットワーク(DNN−C)を訓練するサブステップと、
前記元データ(Data−A)、前記指定されたラベル(Label−A)、および前記空間確率ラベル(Label−B*)を供給すること、ならびに
前記元データ(Data−A)の一般的なケースと希少なケースの両方を1次結合指定および空間確率ラベル(Label−A+B*)に分類するために使用される1次結合クラス固有および汎用特徴(Conv−C→A→D)および決定(FC−C→A→D)空間を出力すること
によって、第1の結合深層ニューラルネットワーク(DNN−D)を訓練するサブステップと
ラベル付けされていないデータ(Data−C)を供給することと、
前記ラベル付けされていないデータを前記1次結合指定および空間確率ラベル(Label−A+B*)に分類することと、
前記1次結合指定および空間確率ラベル(Label−A+B*)を2次結合指定および空間確率誤分類ラベル(Label−C)にマッピングすることと
によって、前記第1の結合深層ニューラルネットワーク(DNN−D)をさらに訓練するサブステップと、
前記ラベル付けされていないデータ(Data−C)、前記2次結合指定および空間確率誤分類ラベル(Label−C)、およびペナルティ行列を供給すること、ならびに
前記ペナルティ行列に従って、前記ラベル付けされていないデータ(Data−C)の一般的なケースと希少なケースの両方を前記2次結合指定および空間確率誤分類ラベル(Label−C)に分類するために使用される2次結合決定および特徴(FC−C→A→D→F;Conv−C→A→D→F)空間を出力すること
によって、第2の結合深層ニューラルネットワーク(DNN−F)を訓練するサブステップと
を備えるステップと、
前記取り込まれたれた画像に基づいて一般的なケースおよび希少なケースを分類するステップと
を備える、画像処理方法。 - 前記第1の深層ニューラルネットワーク(DNN−A)、前記第2の深層ニューラルネットワーク(DNN−C)、前記第1の結合深層ニューラルネットワーク(DNN−D)、および前記第2の結合深層ニューラルネットワーク(DNN−F)が畳み込みニューラルネットワークである、請求項1に記載の画像処理方法。
- 識別クラス固有特徴(HEAT−B)の前記局所化ステップが、
前記少なくとも1つのクラス固有特徴空間(Conv−A)を介して処理された元データのパッチ(Ext−B)をランダムに抽出するステップと、
同じ指定されたラベル(Label−A)のすべてのパッチの中から、それらの統計的な人気度によってランダムに抽出されたパッチ(Rank−B)をランク付けするステップと、
上位ランクのパッチから始まるビジュアルワード(BOW−B)の特徴を袋詰めするステップと、
ビジュアルワード特徴の袋をランダムフォレストツリー(RFT−B)分類するステップと、
識別クラス固有特徴を局所化し、それらの相対的な重要度(HEAT−B)を推定するために、前記ランダムフォレストツリー分類を使用して変数重要度測定値(IMP−B)を抽出するステップと
から構成される、請求項1または2に記載の画像処理方法。 - 前記第2の深層ニューラルネットワーク(DNN−C)の前記訓練ステップが、
空間確率ラベル(Label−B)をサイズ変更するステップと、
汎用損失関数(Loss−C)によって生成されたフィードバックの後方伝播を介して汎用特徴(Conv−C)および決定(FC−C)空間を学習するために、対応するサイズ変更された空間確率ラベルを有する元データのバッチを作成するステップと、
指定されたラベル(Label−A)とは関係なく、前記識別クラス固有特徴の局所化および確率を推定するステップと、
前記元データ(Data−A)の希少なケースをサイズ変更された空間確率ラベル(Label−B*)に分類するステップと
をさらに含む、請求項1から3のいずれか一項に記載の画像処理方法。 - 前記第1の結合深層ニューラルネットワーク(DNN−D)の前記訓練ステップが、
少なくとも1つの汎用特徴空間(Conv−C)および少なくとも1つのクラス固有特徴空間(Conv−A)を、異なる学習率を有する前記1次結合クラス固有および汎用特徴空間(Conv−C→A→D)を形成する少なくとも1つの統合特徴空間(Conv−D)に結合するステップと、
少なくとも1つの汎用決定空間(FC−C)および少なくとも1つのクラス固有決定空間(FC−A)を、前記1次結合クラス固有および汎用決定空間(FC−C→A→D)を形成する少なくとも1つの統合決定空間(FC−D)に結合するステップと、
前記第2の深層ニューラルネットワーク(DNN−C)の前記汎用損失関数(Loss−C)および前記第1の深層ニューラルネットワーク(DNN−A)のクラス固有損失関数(Loss−A)の結合損失関数を使用して、前記1次結合指定および空間確率ラベル(Label−A+B*)から任意のラベルに属する元データに対するフィードバックを提供するステップと
をさらに含む、請求項4に記載の画像処理方法。 - 前記汎用特徴空間(Conv−C)の前記学習率が、前記クラス固有特徴空間(Conv−A)の前記学習率よりも小さい、請求項5に記載の画像処理方法。
- 前記第2の結合深層ニューラルネットワーク(DNN−F)の前記訓練ステップが、
訓練された前記第1の結合深層ニューラルネットワーク(DNN−D)から開始するステップと
ネットワークの能力を向上させて新たに学習された特徴および決定をホストする目的で、隠れレイヤを追加することによって特徴空間および決定空間(FC−C→A→D→F;Conv−C→A→D→F)を拡張するステップと、
前記ペナルティ行列に基づいて誤分類に対するより高いペナルティを有する、前記希少なケースに対してより多くのデータサンプルを使用することにより、前記第2の結合深層ニューラルネットワーク(DNN−F)の損失関数(Loss−C→A→F)またはラベル付けされていないデータのバッチを修正するステップと
をさらに含む、請求項1から6のいずれか一項に記載の画像処理方法。 - 一般的なケースと希少なケース、指定されたラベル(Label−A)、および前記ペナルティ行列を含む元データ(Data−A)を供給すること、ならびに
前記ペナルティ行列に従って、前記元データ(Data−A)の一般的なケースと希少なケースの両方を前記指定されたラベル(Label−A)に分類するために使用される1次結合決定および特徴空間(FC−C→A→D→F→A;Conv−C→A→D→F→A)を出力すること
によって、第3の結合深層ニューラルネットワーク(DNN−G)を訓練するステップ
をさらに備える、請求項7に記載の画像処理方法。 - 前記第3の結合深層ニューラルネットワーク(DNN−G)の前記訓練ステップが、
前記ラベル付けされていないデータ(Data−C)および前記2次結合指定および空間確率誤分類ラベル(Label−C)に対して訓練された第2の結合深層ニューラルネットワーク(DNN−F)から開始するステップと、
隠れレイヤを追加することによって特徴空間および決定空間(FC−C→A→D→F→A;Conv−C→A→D→F→A)を拡張するステップと、
前記ペナルティ行列に基づいて誤分類に対するより高いペナルティを有する、前記希少なケースに対してより多くのデータサンプルを使用することにより、前記第3の結合深層ニューラルネットワーク(DNN−G)の損失関数(Loss−A)またはラベル付けされていないデータのバッチを修正するステップと
をさらに含む、請求項8に記載の画像処理方法。 - 車両(100)であって、
前記車両が運転されているときに、少なくとも運転者の視点から見える辿った経路の部分を取り込み、一連のデジタルファイルに変換するように配置された経路取込みユニット(200;210)と、
請求項1〜9のいずれか一項に記載の前記画像処理方法に従って、前記一連のデジタルファイルを処理し、前記一連のデジタルファイルに基づいて一般的なケースおよび希少なケースを分類するように配置された処理ユニットと、
前記分類された一般的なケースおよび希少なケースに関する情報を表示するように配置された表示ユニットと、
前記車両を制御するように配置された自動運転ユニットと、
前記分類された希少なケースに応じて、前記表示ユニットおよび前記自動運転ユニット
のうちの少なくとも1つを作動させるように配置された決定ユニットと
を備える、車両(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016204275.0 | 2016-03-15 | ||
DE102016204275 | 2016-03-15 | ||
PCT/EP2017/056172 WO2017158058A1 (en) | 2016-03-15 | 2017-03-15 | Method for classification of unique/rare cases by reinforcement learning in neural networks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019514107A JP2019514107A (ja) | 2019-05-30 |
JP6983800B2 true JP6983800B2 (ja) | 2021-12-17 |
Family
ID=58314237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018549257A Active JP6983800B2 (ja) | 2016-03-15 | 2017-03-15 | ニューラルネットワークにおける強化学習によるユニーク/希少なケースの分類のための方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10776664B2 (ja) |
EP (1) | EP3430576A1 (ja) |
JP (1) | JP6983800B2 (ja) |
WO (1) | WO2017158058A1 (ja) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060268A (ja) * | 2016-10-03 | 2018-04-12 | 株式会社日立製作所 | 認識装置および学習システム |
EP3607492A4 (en) * | 2017-04-07 | 2021-01-06 | INTEL Corporation | ADVANCED AND AUGMENTED TRAINING PROCESSES AND SYSTEMS OF DEEP NEURAL NETWORKS USING SYNTHETIC DATA AND INNOVATIVE GENERATIVE NETWORKS |
US10346724B2 (en) * | 2017-06-22 | 2019-07-09 | Waymo Llc | Rare instance classifiers |
JP6729516B2 (ja) * | 2017-07-27 | 2020-07-22 | トヨタ自動車株式会社 | 識別装置 |
US11120337B2 (en) | 2017-10-20 | 2021-09-14 | Huawei Technologies Co., Ltd. | Self-training method and system for semi-supervised learning with generative adversarial networks |
DE102017219274A1 (de) * | 2017-10-26 | 2019-05-02 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verbessern der Robustheit eines maschinellen Lernsystems |
US10657259B2 (en) * | 2017-11-01 | 2020-05-19 | International Business Machines Corporation | Protecting cognitive systems from gradient based attacks through the use of deceiving gradients |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
US10762399B2 (en) | 2017-12-18 | 2020-09-01 | Ford Global Technologies, Llc | Using deep video frame prediction for training a controller of an autonomous vehicle |
CN108133238B (zh) * | 2017-12-29 | 2020-05-19 | 国信优易数据有限公司 | 一种人脸识别模型训练方法和装置及人脸识别方法和装置 |
JP6976360B2 (ja) * | 2018-01-30 | 2021-12-08 | 富士フイルム株式会社 | データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム |
CN108197670B (zh) * | 2018-01-31 | 2021-06-15 | 国信优易数据股份有限公司 | 伪标签生成模型训练方法、装置及伪标签生成方法及装置 |
JP6773707B2 (ja) * | 2018-03-20 | 2020-10-21 | 株式会社東芝 | 信号処理装置、信号処理方法およびプログラム |
US10726313B2 (en) * | 2018-04-19 | 2020-07-28 | Adobe Inc. | Active learning method for temporal action localization in untrimmed videos |
CN108596078A (zh) * | 2018-04-20 | 2018-09-28 | 南京信息工程大学 | 一种基于深度神经网络的海洋噪声信号识别方法 |
US10990096B2 (en) * | 2018-04-27 | 2021-04-27 | Honda Motor Co., Ltd. | Reinforcement learning on autonomous vehicles |
CN108648187B (zh) * | 2018-05-14 | 2021-06-15 | 南方医科大学 | 一种基于深度特征袋的分类方法 |
KR102102161B1 (ko) * | 2018-05-18 | 2020-04-20 | 오드컨셉 주식회사 | 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램 |
US11281976B2 (en) * | 2018-07-12 | 2022-03-22 | International Business Machines Corporation | Generative adversarial network based modeling of text for natural language processing |
US11481416B2 (en) | 2018-07-12 | 2022-10-25 | International Business Machines Corporation | Question Answering using trained generative adversarial network based modeling of text |
JP7202091B2 (ja) * | 2018-07-13 | 2023-01-11 | 日本放送協会 | 画質評価装置、学習装置及びプログラム |
CN110738221B (zh) * | 2018-07-18 | 2024-04-26 | 华为技术有限公司 | 一种运算系统及方法 |
US10901416B2 (en) * | 2018-07-19 | 2021-01-26 | Honda Motor Co., Ltd. | Scene creation system for autonomous vehicles and methods thereof |
US10832003B2 (en) * | 2018-08-26 | 2020-11-10 | CloudMinds Technology, Inc. | Method and system for intent classification |
CN109085751B (zh) * | 2018-09-16 | 2021-03-12 | 南京大学 | 一种基于多粒度强化学习的六足机器人导航方法 |
EP3853764A1 (en) * | 2018-09-20 | 2021-07-28 | NVIDIA Corporation | Training neural networks for vehicle re-identification |
CN109325547A (zh) * | 2018-10-23 | 2019-02-12 | 苏州科达科技股份有限公司 | 非机动车图像多标签分类方法、系统、设备及存储介质 |
CN111178491A (zh) * | 2018-11-09 | 2020-05-19 | 佳能株式会社 | 神经网络模型的训练和应用方法、装置、系统及存储介质 |
US11375176B2 (en) * | 2019-02-05 | 2022-06-28 | Nvidia Corporation | Few-shot viewpoint estimation |
CN109858557B (zh) * | 2019-02-13 | 2022-12-27 | 安徽大学 | 一种新的高光谱图像数据半监督分类方法 |
JP7162550B2 (ja) * | 2019-02-15 | 2022-10-28 | オムロン株式会社 | モデル生成装置、予測装置、モデル生成方法、及びモデル生成プログラム |
US10860878B2 (en) | 2019-02-16 | 2020-12-08 | Wipro Limited | Method and system for synthesizing three-dimensional data |
CN109885091B (zh) * | 2019-03-21 | 2021-08-24 | 华北电力大学(保定) | 一种无人机自主飞行控制方法及系统 |
US20220215209A1 (en) * | 2019-04-25 | 2022-07-07 | Google Llc | Training machine learning models using unsupervised data augmentation |
FR3095878B1 (fr) * | 2019-05-10 | 2021-10-08 | Univ De Brest | Procédé d'analyse automatique d'images pour reconnaître automatiquement au moins une caractéristique rare |
US11176429B2 (en) | 2019-05-13 | 2021-11-16 | International Business Machines Corporation | Counter rare training date for artificial intelligence |
CN110097033B (zh) * | 2019-05-15 | 2023-04-07 | 成都电科智达科技有限公司 | 一种基于特征扩充的单样本人脸识别方法 |
CN110234085B (zh) * | 2019-05-23 | 2020-09-15 | 深圳大学 | 基于对抗迁移网络的室内位置指纹地图生成方法及系统 |
CN110180186B (zh) * | 2019-05-28 | 2022-08-19 | 北京奇思妙想信息技术有限公司 | 一种地形图转换方法及系统 |
US11308365B2 (en) * | 2019-06-13 | 2022-04-19 | Expedia, Inc. | Image classification system |
US11507090B2 (en) * | 2019-06-19 | 2022-11-22 | Uber Technologies, Inc. | Systems and methods for vehicle motion control with interactive object annotation |
CN110287191B (zh) * | 2019-06-25 | 2021-07-27 | 北京明略软件系统有限公司 | 数据对齐方法及装置、存储介质、电子装置 |
KR20210012730A (ko) | 2019-07-26 | 2021-02-03 | 삼성전자주식회사 | 인공지능 모델의 학습 방법 및 전자 장치 |
US11163947B2 (en) * | 2019-07-30 | 2021-11-02 | Imrsv Data Labs Inc. | Methods and systems for multi-label classification of text data |
US20210049473A1 (en) * | 2019-08-14 | 2021-02-18 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Robust Federated Training of Neural Networks |
CN112633459A (zh) * | 2019-09-24 | 2021-04-09 | 华为技术有限公司 | 训练神经网络的方法、数据处理方法和相关装置 |
CN110659692B (zh) * | 2019-09-26 | 2023-04-18 | 重庆大学 | 基于强化学习和深度神经网络的病理图像自动标注方法 |
WO2021061401A1 (en) * | 2019-09-27 | 2021-04-01 | D5Ai Llc | Selective training of deep learning modules |
CN110717600B (zh) * | 2019-09-30 | 2021-01-26 | 京东城市(北京)数字科技有限公司 | 样本池构建方法和装置、以及算法训练方法和装置 |
CN112712094A (zh) * | 2019-10-24 | 2021-04-27 | 北京四维图新科技股份有限公司 | 模型的训练方法、装置、设备及存储介质 |
US20210241101A1 (en) * | 2020-02-04 | 2021-08-05 | Dsp Group Ltd. | Post-training Control of the Bias of Neural Networks |
CN111382791B (zh) * | 2020-03-07 | 2023-12-26 | 北京迈格威科技有限公司 | 深度学习任务处理方法、图像识别任务处理方法和装置 |
US10963792B1 (en) * | 2020-03-26 | 2021-03-30 | StradVision, Inc. | Method for training deep learning network based on artificial intelligence and learning device using the same |
CN111461232A (zh) * | 2020-04-02 | 2020-07-28 | 大连海事大学 | 一种基于多策略批量式主动学习的核磁共振图像分类方法 |
US11087883B1 (en) * | 2020-04-02 | 2021-08-10 | Blue Eye Soft, Inc. | Systems and methods for transfer-to-transfer learning-based training of a machine learning model for detecting medical conditions |
CN111723780B (zh) * | 2020-07-22 | 2023-04-18 | 浙江大学 | 基于高分辨率遥感图像的跨域数据的定向迁移方法及系统 |
SG10202007348TA (en) * | 2020-08-01 | 2021-03-30 | Sensetime Int Pte Ltd | Target object identification method and apparatus |
CN111950638B (zh) * | 2020-08-14 | 2024-02-06 | 厦门美图之家科技有限公司 | 基于模型蒸馏的图像分类方法、装置和电子设备 |
CN112488170B (zh) * | 2020-11-24 | 2024-04-05 | 杭州电子科技大学 | 一种基于深度学习的多特征融合图像分类方法 |
CN112529178B (zh) * | 2020-12-09 | 2024-04-09 | 中国科学院国家空间科学中心 | 一种适用于无预选框检测模型的知识蒸馏方法及系统 |
CN113496481B (zh) * | 2021-05-20 | 2023-11-07 | 北京交通大学 | 一种少样本胸部X-Ray图像的辅助检测方法 |
CN113327666B (zh) * | 2021-06-21 | 2022-08-12 | 青岛科技大学 | 一种胸片疾病多分类网络的多标签局部至全局学习方法 |
US11983202B2 (en) * | 2021-06-29 | 2024-05-14 | Naver Corporation | Computer-implemented method for improving classification of labels and categories of a database |
CN113535953B (zh) * | 2021-07-15 | 2022-05-27 | 湖南大学 | 一种基于元学习的少样本分类方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7610130B1 (en) * | 2005-07-20 | 2009-10-27 | Sandia Corporation | Physical context management for a motor vehicle |
US7860813B2 (en) * | 2008-01-24 | 2010-12-28 | Nec Laboratories America, Inc. | Monitoring driving safety using semi-supervised sequential learning |
JP2012026982A (ja) * | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
WO2015177268A1 (en) * | 2014-05-23 | 2015-11-26 | Ventana Medical Systems, Inc. | Systems and methods for detection of biological structures and/or patterns in images |
-
2017
- 2017-03-15 WO PCT/EP2017/056172 patent/WO2017158058A1/en active Application Filing
- 2017-03-15 US US16/085,989 patent/US10776664B2/en active Active
- 2017-03-15 EP EP17710934.5A patent/EP3430576A1/en active Pending
- 2017-03-15 JP JP2018549257A patent/JP6983800B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017158058A1 (en) | 2017-09-21 |
JP2019514107A (ja) | 2019-05-30 |
EP3430576A1 (en) | 2019-01-23 |
US10776664B2 (en) | 2020-09-15 |
US20190122077A1 (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6983800B2 (ja) | ニューラルネットワークにおける強化学習によるユニーク/希少なケースの分類のための方法 | |
Ribera et al. | Locating objects without bounding boxes | |
US10318848B2 (en) | Methods for object localization and image classification | |
US10902615B2 (en) | Hybrid and self-aware long-term object tracking | |
US10691952B2 (en) | Adapting to appearance variations when tracking a target object in video sequence | |
Simon et al. | Complexer-yolo: Real-time 3d object detection and tracking on semantic point clouds | |
Laskar et al. | Camera relocalization by computing pairwise relative poses using convolutional neural network | |
CN107851191B (zh) | 用于图像中的对象检测的基于上下文的先验 | |
EP2225727B1 (en) | Efficient multi-hypothesis multi-human 3d tracking in crowded scenes | |
Xiao et al. | CRF based road detection with multi-sensor fusion | |
AU2021208647A1 (en) | Systems for multiclass object detection and alerting and methods therefor | |
CN111507469A (zh) | 对自动标注装置的超参数进行优化的方法和装置 | |
US11481576B2 (en) | Subject-object interaction recognition model | |
Vaquero et al. | Dual-branch CNNs for vehicle detection and tracking on LiDAR data | |
Manssor et al. | Real-time human detection in thermal infrared imaging at night using enhanced Tiny-yolov3 network | |
US11597383B1 (en) | Methods and systems for parking a vehicle | |
Villamizar et al. | Fast online learning and detection of natural landmarks for autonomous aerial robots | |
Astudillo et al. | DAttNet: monocular depth estimation network based on attention mechanisms | |
Sommer et al. | Using temporal information for improved UAV type classification | |
Kim et al. | Robust geodesic skeleton estimation from body single depth | |
Weill | Edge-Computing Deep Learning-Based Computer Vision Systems | |
Hildebrand | Uncertainty Measurement as a Sensor Performance Metric in Adverse Conditions | |
Ding | Radar and Camera Fusion in Intelligent Transportation System | |
Zhou | Distance Estimation Based on Computer Vision | |
Guo | Automated scene understanding from aerial imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200217 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201027 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201102 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20210422 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210810 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6983800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |