JP2023156308A - ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 - Google Patents
ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 Download PDFInfo
- Publication number
- JP2023156308A JP2023156308A JP2023117276A JP2023117276A JP2023156308A JP 2023156308 A JP2023156308 A JP 2023156308A JP 2023117276 A JP2023117276 A JP 2023117276A JP 2023117276 A JP2023117276 A JP 2023117276A JP 2023156308 A JP2023156308 A JP 2023156308A
- Authority
- JP
- Japan
- Prior art keywords
- dnn
- real
- learning
- neural network
- time operating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000013473 artificial intelligence Methods 0.000 title 1
- 238000013135 deep learning Methods 0.000 title 1
- 238000013528 artificial neural network Methods 0.000 claims abstract description 72
- 230000000694 effects Effects 0.000 claims abstract description 10
- 230000004044 response Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 23
- 238000002156 mixing Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 230000004931 aggregating effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000008447 perception Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 abstract description 65
- 238000005516 engineering process Methods 0.000 abstract description 12
- 238000013500 data storage Methods 0.000 abstract description 2
- 238000013480 data collection Methods 0.000 abstract 1
- 238000007689 inspection Methods 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 28
- 230000002776 aggregation Effects 0.000 description 23
- 238000004220 aggregation Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 17
- 230000011218 segmentation Effects 0.000 description 14
- 230000008901 benefit Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 210000004556 brain Anatomy 0.000 description 9
- 230000000295 complement effect Effects 0.000 description 8
- 230000001953 sensory effect Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 241000282836 Camelus dromedarius Species 0.000 description 6
- 230000004913 activation Effects 0.000 description 6
- 238000001994 activation Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241001133760 Acoelorraphe Species 0.000 description 2
- 241000282832 Camelidae Species 0.000 description 2
- 241000219492 Quercus Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010035148 Plague Diseases 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000009165 androgen replacement therapy Methods 0.000 description 1
- 238000011950 automated reagin test Methods 0.000 description 1
- 230000036624 brainpower Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- UKDDGQIUZRWRIK-UHFFFAOYSA-N ethyl n-[4-[benzyl(2-phenylethyl)amino]-2-(4-methoxyphenyl)-1h-imidazo[4,5-c]pyridin-6-yl]carbamate Chemical compound N=1C(NC(=O)OCC)=CC=2NC(C=3C=CC(OC)=CC=3)=NC=2C=1N(CC=1C=CC=CC=1)CCC1=CC=CC=C1 UKDDGQIUZRWRIK-UHFFFAOYSA-N 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23211—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with adaptive number of clusters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0409—Adaptive resonance theory [ART] networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
本出願は、米国特許法119条(e)の下で、2017年12月31日出願の米国特許
出願第62/612,529号、および2017年5月9日出願の米国特許出願第62/
503,639号の優先権を主張する。これらの各出願は、その全体を参照することによ
り本明細書に組み込まれる。
ットワーク(DNN)を含め、従来のニューラルネットワークは、特定のデータセットに
対してトレーニングのために数千回または数百万回の繰り返しサイクルを必要とする。こ
れらのサイクルは、高性能コンピューティングサーバで頻繁に行われる。実際に、入力デ
ータセットのサイズによって、従来のDNNの中には、トレーニングに数日または数週間
もかかる場合がある。
リズムは、誤差勾配を逆伝播させるためにチェーンルールを適用することによって、ラベ
ル付きデータセットからの誤差勾配に比例するDNNの全重みの変化を計算する。逆伝播
は、各データの重みを少し変更し、多くのエポックに対してセット中の全データに広がる
。
に落ち着く可能性がより高くなり、それによって、パフォーマンスが低下しうる。損失関
数が最小に落ち着く可能性を増大するために、DNNは学習率を減少させ、それによって
、すべてのトレーニングエポックで重みが少し変更される。これによって、トレーニング
サイクルの回数、および総学習時間が増加する。
間または数か月かかったトレーニングジョブを達成するのに使用される、高度な並列動作
のための計算能力に大きな改善がもたらされた。これらのジョブは今、GPUで数時間ま
たは数日で完了できるが、これでもまだ、リアルタイムに知識を更新するには十分速くは
ない。さらに、DNNを更新するために高性能計算サーバを利用すると、サーバ価格およ
びエネルギー消費の点からコストについて指摘される。これによって、リアルタイム動作
の多くの場合に望ましい、オンザフライのDNNに基づくシステムの知識を更新するのが
、非常に困難になる。
ネットワーク中の重みすべてに影響を与えうる(通常の分散表現により)ため、標準的な
DNNは、新しい物体を学習すると、以前の知識を忘れやすい。複数のエポックによる同
じ入力の反復表現によって、この問題は軽減されるが、新しい知識をシステムへ迅速に追
加することが非常に困難であるという欠点がある。これは、学習が、計算を限定されるエ
ッジデバイス(例えば、携帯電話、タブレット、または小型フォームファクタプロセッサ
)上で実現困難、または完全に不可能であることが一つの理由である。忘れるという問題
が解決されたとしても、エッジデバイス上での学習は、トレーニングの高い計算負荷、小
さなトレーニングステップ、および全入力の反復表現から、依然として実現困難であろう
。
の計算エッジだけでなく、配備のライフサイクルにわたって、新たに取得した知識を迅速
に共有することが、知的エージェントの望ましい特性である、分散型多エッジシステム(
例えば、ネットワークの中で接続されるスマートフォン、ネットワーク化されたスマート
カメラ、ドローンまたは自動運転車両の一団、および類似のもの)にも当てはまる。
出し、ネットワーク層を通って誤差を戻し分散させる。全ニューロンの重みは、損失関数
の勾配を算出することによって調整される。したがって、ネットワークが古い例を正しく
分類する能力を失わないように、新しいトレーニング例は、古い例を再トレーニングせず
に、事前にトレーニングされたネットワークには追加できない。古い例を正しく分類する
能力を失うことを、「致命的忘却」と呼ぶ。この忘れるという問題は、動作している間に
オンザフライで新しい情報を迅速に学習し組み込む必要がしばしばある、リアルタイムに
動作する機械と接続しているとみなされるとき、特に関連がある。
NNを再トレーニングするために、大量のデータを蓄積する必要がありうる。蓄積された
データは、オペレータからラベルを手に入れ、その後、エッジ上で実行されるDNNを再
トレーニングするために、リアルタイムに動作する機械である「エッジ」(すなわち、例
えば、自動運転自動車、ドローン、ロボットなどのデバイス自体)から、中央サーバ(例
えば、クラウドベースのサーバ)へ転送される。蓄積されるデータが多くなるほど、時間
およびネットワーク帯域の点から、転送プロセスがより高額になる。加えて、中央サーバ
上におけるインターリーブのトレーニングによって、新しいデータを、システムのライフ
サイクル全体用に記憶される元データと組み合わせる必要がある。これによって、厳しい
伝送帯域およびデータ記憶制限が作り出される。
ングシステムに適用すると、次の欠点に悩まされる。
a.システムを新しい知識でオンザフライにより更新することは不可能である。
b.サーバとの通常通信、おおび知識の更新のための著しい待機時間なしでは、エッジ
の配備サイクルの間中の学習は不可能である。
c.新しい情報の学習には、さらなるトレーニングのため、全入力データを無期限に記
憶する、サーバ空間、エネルギー消費、およびディスク空間の消費が必要となる。
d.小型フォームファクタのコンピューティングエッジデバイス上では学習できない。
e.低速で高価なサーバ側の再トレーニングおよび再配備を行わなければ、複数のエッ
ジにわたって知識をマージできない。
による集中学習を必要とすることなく、軽量の計算デバイス(エッジ)における、人工ニ
ューラルネットワーク(ANN)およびディープニューラルネットワーク(DNN)での
連続したオンライン生涯学習が可能になる。L-DNNによって、連続データストリーム
からのリアルタイム学習が可能になり、逆伝播学習の複数回の繰り返しのために、入力デ
ータを記憶する必要を回避する。
を実現するように、表現豊富なDNNに基づくサブシステム(モジュールA)を高速学習
サブシステム(モジュールB)と組み合わせる。これらの特徴セットは、逆伝播など、低
速学習の方法論によって事前にトレーニングできる。本開示で詳細に記載する(他の特徴
に関する記載は、モジュールAに非DNN方法論を採用することにより可能である)DN
Nに基づく事例の場合、DNNの高水準特徴抽出層は、知っている実体および事象を分類
し、知らない実体および事象の知識をオンザフライで追加するように、モジュールBの高
速学習システムへの入力として機能する。モジュールBは、低速学習の欠点を伴わずに、
重要な情報を学習し、記述的で予測確率の高い環境の特徴を捕捉できる。
DAR)データ、ソナー(SONAR)データ、レーダー(RADAR)データ、または
音声データに適用できる。視覚データまたは類似のデータに対して、L-DNN技法は、
全体像分類(例えば、場面検出)、境界ボックスベースの物体認識、ピクセル単位のセグ
メンテーション、および他の視覚認識タスクが可能になるなど、視覚処理に適用できる。
L-DNN技法はまた、非視覚信号の分類などの非視覚認識タスク、およびロボット、自
動運転自動車、ドローン、または他のデバイスが環境を進んでいくにつれて、徐々に知識
を追加することによって、自己位置推定と環境地図作成を同時に行うこと(SLAM)で
生成される地図を更新するなど、他のタスクも行うことができる。
リ」)を学習するとき、L-DNNの中でメモリを集約することによって、メモリ要件を
モジュールBの制御下に保持する。加えて、L-DNN方法論によって、複数のエッジコ
ンピューティングデバイスが、エッジを横断してそれらの知識(または入力データを分類
する能力)をマージすることが可能になる。マージは、二つのモジュールB間でのニュー
ラルネットワーク表現の直接交換によって、またはいくつかのエッジからの複数のモジュ
ールBの表現をマージする、中間サーバを介して、ピアツーピアごとに発生しうる。最後
に、L-DDNは逆伝播に依存せず、それによって、トレーニング時間、電力要件、およ
び計算資源を劇的に減少させて、新しい入力データを使用して、L-DNN知識を更新す
る。
組み合わせは(このような概念は相互に矛盾していないという前提で)、本明細書に開示
する本発明の主題の一部であると考えられる。特に、本開示の最後に現れる、特許請求の
範囲に記載する主題のすべての組み合わせは、本明細書に開示する発明主題の一部である
と考えられる。また当然のことながら、参照により組み込まれるあらゆる開示において明
示的に用いられる用語には、本明細書に開示する特定の概念と最も一致する意味を与える
必要がある。
業者に明らかとなるであろう。このようなさらなるシステム、プロセス、および特徴すべ
てが、本記載内に含まれ、本発明の範囲内であり、添付の特許請求の範囲によって保護さ
れることが意図される。
本発明の主題の範囲を制限することを意図していないことを理解するだろう。図面は必ず
しも一定の比率ではなく、一部の例では、本明細書に開示する本発明の主題の様々な態様
は、異なる特徴の理解を容易にするために図面内で誇張または拡大されて示されうる。図
面では、同様の参照文字は概して、同様の特徴(例えば、機能的に類似した、および/ま
たは構造的に類似した要素)を意味する。
生涯学習ディープニューラルネットワークまたは生涯ディープニューラルネットワーク
(L-DNN)によって、リアルタイムに動作する機械が、中央サーバまたはクラウド上
で学習する必要なく、エッジにてオンザフライで学習することが可能になる。これによっ
て、ネットワークの遅延を排除し、リアルタイムの性能を増大させ、必要に応じてプライ
バシーが確保される。一部の例では、リアルタイムに動作する機械は、L-DNNを使用
して、現場で特定のタスクに対して更新できる。例えば、L-DNNを用いて、調査ドロ
ーンが、基地局鉄塔もしくは太陽電池パネルの最上部で問題を特定する方法を学習でき、
データをローカルデバイスの外部で共有しないため、プライバシーの問題を心配すること
なく、ユーザの嗜好に基づいてスマートトイを自分用に設定でき、スマートフォンが、非
常に長くかかる学習のために情報を中央サーバへ発送することなく、エッジで学習した知
識を共有でき(全デバイスとピアツーピアでまたは大局的に)、または自動運転自動車が
動作すると、知識を学習し共有できる。
り、それによって、致命的忘却を軽減または排除する。言い換えると、本技術によって、
リアルタイムに動作する機械が、a)入力画像を送信も記憶もする必要なく、b)トレー
ニングに時間を消費することもなく、c)大きなコンピューティング資源もなしに、ユー
ザ入力に基づいて、エッジで継続的かつ最適に挙動を調整することが可能になる。配備後
のL-DNNを用いた学習によって、リアルタイムに動作する機械が、その環境およびユ
ーザの相互作用の変化に適応し、元のデータセットの欠陥に対処し、カスタマイズされた
体験をユーザに提供することが可能になる。
は、「クラウドコレクション」、ならびに知識のラベル付け、およびこの収集した知識の
エッジデバイス間における共有を含み、単調で退屈な集中的ラベル付けの時間を排除する
。言い換えると、エッジデバイスのうちの一つ以上からの頭脳を、一つが別のものに(ピ
アツーピア)マージ、またはエッジにあるデバイスの一部もしくはすべてにプッシュバッ
クされて共有される頭脳の中へマージのいずれか一方を行える。L-DNNによって、知
識のマージ/混合/共有/組み合わせが、物体数の線形的増大と変わらない速さで、メモ
リフットプリントの増大をもたらし、リアルタイムで生じ、結果、デバイス間で交換され
るのが少量の情報となることが保証される。これらの特徴によって、L-DNNは実世界
での適用に対して実用的となる。
ークアーキテクチャを実装する。
1)工場で事前にトレーニングされ固定されるか、または逆伝播、もしくはデータ入力
の数列に基づく他の学習アルゴリズムによって学習するように構成されるかの、いずれか
のニューラルネットワーク(例えば、ディープニューラルネットワーク)を含む、低速学
習のモジュールA。
2)トレーニングサンプルをほとんど持たずに、シナプスの重みおよび表現を瞬時に変
更できる、漸進的な分類器を提供する、モジュールB。この漸進的な分類器のインスタン
ス化の例には、例えば、適応共鳴理論(ART)ネットワーク、またはコントラスティブ
ダイバージェンスでニューラルネットワークをトレーニングする、制限ボルツマンマシン
(RBM)、およびサポートベクターマシン(SVM)または他の高速学習の教師付き分
類プロセスなど、非ニューラルの方法を含む。
法のパターンを学習する、モノのインターネット(IoT)デバイスと、運転「スタイル
」をユーザのものに順応できるか、オンザフライで新しい技能を迅速に学習できるか、ま
たは新しい私道に駐車できる、自動運転車両と、オンザフライでインフラへの損傷の新し
いクラスを学習でき、動作中、短時間の学習後にこの損傷を見分けられる、ドローンと、
所有者の識別のためにクラウドにpingを送ることなく、(ほぼ)瞬時に学習できる、
おもちゃまたはコンパニオンロボットなどの、家庭ロボットと、前に一度も見たことがな
い物体を認識して反応し、新しい障害物を避け、世界地図の中に新しい物体を見つけるこ
とを学習できる、ロボットと、新しい部品、およびそれをオンザフライで操作する方法を
学習できる、産業ロボットと、新しい個人または物体を学習し、ネットワークへ接続する
他のカメラにより提供される画像の中にそれを迅速に発見できる、セキュリティカメラと
によって例証される。上の適用は、本明細書に記載する技術革新により解除され可能にな
る問題のクラスの例でしかなく、学習は、費用が高く非常に長い反復学習をサーバ上で始
めることが必要とされることなく、特定の適用において埋め込まれるコンピューティング
デバイスに直接発生しうる。
赤外線(IR)画像、ライダーデータ、ソナーデータ、および類似のもの)、音響データ
、他の時系列データ(例えば、センサデータ、工場で生成されるデータを含むリアルタイ
ムデータストリーム、IoTデバイスデータ、金融データ、および類似のもの)、および
このようなデータストリームのいかなる多様式の線形/非線形の組み合わせを含むが、そ
れらに限定するものではない、いくつかの入力様式に適用できる。
上に開示したように、L-DNNは、高速学習モードおよび低速学習モードを組み合わ
せるように、異種ニューラルネットワークアーキテクチャを実装する。高速学習モードで
は、L-DNNを実装する、リアルタイムに動作する機械が、ほぼ即座に新しい知識に応
答できるように、新しい知識および新しい体験を学習する。このモードでは、高速学習サ
ブシステムの学習率は、新しい知識および対応する新しい体験に有利に働くほど高く、一
方、低速学習サブシステムの学習率は、古い知識および対応する古い体験を保存するよう
に、低い値またはゼロに設定される。
、ロボット、スマートフォン、または他のIoTデバイス)を含む、L-DNNを動かす
複数デバイスがコンサートで動作する、L-DNNアーキテクチャの概要を提供する。各
デバイスは感覚入力100を受信し、それを、低速学習モジュールA102および高速学
習モジュールB104を備える、対応するL-DNN106へ供給する。各モジュールA
102は、事前に学習した(固定の重み)DNNに基づき、特徴抽出器として機能する。
モジュールA102は、入力100を受信し、関連する特徴を物体の圧縮表現の中へ抽出
し、これらの表現を対応するモジュールB104へ供給する。モジュールB104は、こ
れらの物体表現を高速で学習できる。ユーザとのやり取りを通して、モジュールB104
は、知らない物体に対する正しいラベルを受信し、各特徴ベクトルと対応するラベルとの
間の関連付けを迅速に学習し、結果として、これらの新しい物体を即座に認識できる。複
数のL-DNN106は、異なる入力を学習するとき、新しく取得した知識を混合し(融
合し、マージし、または組み合わせ)、以下に開示するように、それを他のL-DNN1
06と共有するために、ピアツーピアで(破線)または中央サーバへ(点線)接続できる
。
nly look once(見るのは一度のみ)」(YOLO)と比較する、次の試験
結果を生み出した。一つの物体を持つ、小さな(600画像)同じカスタムデータセット
を使用して、両ネットワークをトレーニングし検証した。これらのうちの200画像を検
証セットとして使用した。異なるサイズの四つのトレーニングセット(100、200、
300、および400画像)が、残りの400画像から作り出された。L-DNNトレー
ニングでは、トレーニングセットの各画像が一度提示された。従来のDNN YOLOで
は、無作為にトレーニングセットをシャッフルすることによってバッチを作り出し、トレ
ーニングはこれらのバッチを複数回繰り返して進められた。トレーニング後、両ネットワ
ーク上で検証を行い、次の平均適合率の平均(mAP:mean average pr
ecision)の結果を生み出した。
時間は1.1秒であり、YOLOに対するトレーニング時間は21.5時間であった。こ
れは驚くほど大きな性能の改善である。L-DNNのメモリフットプリントは320MB
であり、一方、YOLOのフットプリントは500MBであった。これらの結果は、L-
DNNが、従来のDNN YOLOよりも良い精度を実現でき、より小さいデータセット
、さらにより高速のトレーニング時間、およびより少ないメモリ要件でこれを行えること
を明らかに示している。
図2は、ロボット、ドローン、スマートフォン、またはIoTデバイスなど、リアルタ
イムに動作する機械によって使用される、L-DNNアーキテクチャの例を示す。L-D
NN106は、二つのサブシステム、低速学習モジュールA102および高速学習モジュ
ールB104を使用する。一実装では、モジュールAは事前にトレーニングされたDNN
を含み、モジュールBは高速学習の適応共鳴理論(ART)パラダイムに基づき、DNN
はARTへ、後者の特徴層のうちの一つ(通常、DNN自体が完全に接続した層を分類す
る直前の層、または直前から二番目の層)の出力を供給する。複数のDNN層が、一つ以
上のモジュールBへ入力を提供できる(例えば、マルチスケール、投票、または階層形式
で)、他の構成も可能である。
/データ(例えば、ビデオデータ、構造化光データ、音声データ、それらの組み合わせ、
および/または類似のもの)を取得する。入力源100は、カメラシステムを含む場合、
リアルタイムに動作する機械を囲む環境のビデオストリームを取得できる。入力源100
からの入力データは、リアルタイムでモジュールA102によって処理され、モジュール
A102は、モジュールB104への入力として、圧縮された特徴信号を提供する。この
例では、ビデオストリームは、モジュールAおよびBによってリアルタイムで一連の画像
フレームとして処理できる。モジュールAおよびモジュールBは、適切な揮発性および不
揮発性メモリ、ならびに適切な入力/出力インターフェースを伴い、グラフィックプロセ
ッサユニット、フィールドプログラマブルゲートアレイ、または特定用途向け集積回路な
どの適切なコンピュータプロセッサに実装できる。
ラルネットワーク(DNN)200に供給される。DNN200は、例示的実装セクショ
ンで詳細に示すように、入力情報/データを表すのに用いることができる特徴を、抽出す
るように使用される畳み込み層204のスタック202を含む。DNN200は、望まし
いレベルのデータ表現を実現するように、配備前に工場で事前にトレーニングできる。D
NN200は、そのアーキテクチャを判定する構成ファイルと、トレーニング中に取得さ
れる知識を表す、対応する重みのセットとによって、完全に定義できる。
用する。一つ以上の高速学習ニューラルネットワーク分類器を含むモジュールB104を
、モジュールA102のDNN200へ接続するために、最初のDNNにより分類時に作
動するDNNの上位層の一部のみ(例えば、図2の層206および208)を無視するか
、またはさらにまとめてシステムから取り去る。高水準特徴抽出層204の望ましい未加
工の畳み込み出力にアクセスして、モジュールB104への入力として機能させる。例え
ば、元のDNN200は大抵、勾配降下技法でトレーニング中に重みを最適化することが
可能になるように使用される、コスト層208に加えて、多数の完全に接続された平均化
を行うプーリング層206を含む。これらの層は、DNNトレーニング中、またはDNN
200から直接予測を得るために使用されるが、モジュールB104用の入力を生成する
ためには必要ない(図2の陰影は、層206および208が不必要であることを示す)。
代わりに、モジュールB104のニューラルネットワーク分類器に対する入力は、DNN
204の畳み込み層のサブセットから取られる。異なる層または複数の層を使用して、モ
ジュールB104への入力を提供できる。
情報を集めるフィルタを包含する。これらのフィルタは、DNNの畳み込み層を通して空
間情報を維持する。特徴抽出器の一つ以上の後期畳み込み層204からの出力(絵によっ
てテンソル210として表す)は、モジュールB104の中のニューラルネットワーク分
類器(例えば、ART分類器)の入力ニューロン層212へ供給される。例示的実装セク
ションで詳細に記載するように、L-DNN106が全体画像分類または物体検出のため
に設計されたかによって、モジュールA102の各後期畳み込み層204と、モジュール
B104のそれぞれの高速学習ニューラルネットワーク分類器との間に、1対1または1
対多の対応がありうる。
力データ(例えば、センサ100からの元画像)からのn層スタックの表現として見るこ
とができる。この例では、スタックの各要素は、カメラからの入力画像と同じ空間地形を
持つグリッドとして表される。n個のスタックにわたる各グリッド要素が、モジュールB
のニューラルネットワークへの実際の入力である。
習を促進するように、任意の初期知識で、またはモジュールA102のトレーニングされ
た分類で事前にトレーニングされうる。入力源100が環境に関連するデータをL-DN
N106へ提供すると、ニューラルネットワーク分類器は、DNN200からのデータ(
例えば、テンソル210)を連続して処理する。モジュールBのニューラルネットワーク
分類器は、高速の、好ましくは、ワンショット学習を使用する。ART分類器は、一致に
基づくパターン学習を実装するように、ニューロンのような要素間のボトムアップ(入力
)およびトップダウン(フィードバック)の連想型投影、ならびにカテゴリ間で競争を実
施するように水平投影を使用する。
されるとき、ARTベースのモジュールB104は、特徴をF1層212に入力ベクトル
として置き、この入力ベクトルと既存の重みベクトル214との間の距離操作を計算して
、F2層216で全カテゴリノードの活性化を判定する。距離は、ファジーAND(AR
Tのデフォルトバージョン)、ドット積、またはベクトル末端間のユークリッド距離のい
ずれかとして計算される。その後、カテゴリノードは、最も活性化が高いものから最も低
いものへと並び替えられ、カテゴリノード間で競争を実施し、この順序で勝者候補とみな
される。勝者候補のラベルが、ユーザにより提供されるラベルと一致する場合、対応する
重みベクトルを更新して、最も簡単純な実装では、勝者ノードに対して新しい入力と既存
の重みベクトルとの重み付き平均を取る学習プロセスを通して、新しい入力を普遍化して
含める。正しいラベルを有する勝者がいない場合、新しいカテゴリノードは、入力のコピ
ーである重みベクトルを伴い、カテゴリ層F2の216に導入される。どちらの場合も、
モジュールB104はこのときにはこの入力を知っており、次の提示では認識できる。
体でL-DNN106の出力として、またはモジュールA102からの特定のDNN層か
らの出力との組み合わせとして、いずれかで機能する。場面全体の物体認識に対して、全
体画像を分類するとき、モジュールBの出力は十分でありうる。物体検出のために、モジ
ュールB104によって、モジュールAの活動から判定される境界ボックス上に重ね合わ
せるクラスラベルが提供され、そのため、各物体は、モジュールA102によって正しく
見つけられ、モジュールB104によって正しくラベル付けされる。物体セグメンテーシ
ョンのために、モジュールA102からの境界ボックスが、ピクセル単位のマスクに置き
換えられ、モジュールB104がこれらのマスク用のラベルを提供してもよい。モジュー
ルA102およびモジュールB104のさらなる詳細を、以下に提供する。
通常のL-DNNおよび特定のモジュールBは、連続する感覚入力にリアルタイムで動
作するように設計されるため、モジュールBのニューラルネットワークは、知っている物
体が全く提示されないときも、混乱しないように実装されるべきである。従来のニューラ
ルネットワークは、入力にラベル付きの物体を通常包含するデータセットを標的としてい
るため、結果として、知っている物体が存在しない場合、入力に対処する必要がない。し
たがって、このようなネットワークをL-DNNのモジュールBで使用するには、「何も
知らない(Nothing I know)」というさらなる特別カテゴリをネットワー
クへ追加して、知らない物体を知っていると間違って分類するモジュールBの試み(偽陽
性)を軽減するべきである。
うる、実況の感覚ストリームを処理するときに有用である。これによって、モジュールB
およびL-DNNは、潜在的に、知らない物体を誤って知っている物体と識別する代わり
に、知らない物体を「何も知らない」または「以前に見ていない(not previo
usly seen)」と識別することが可能になる。「何も知らない」という概念の実
装で従来の設計を拡張することは、バイアスノードをネットワークへ追加することと同じ
くらい単純でありうる。「何も知らない」の概念はまた、既知の物体クラスの数およびそ
れらが対応する活性化に従って、自動的に影響を増減させるバージョンで実装できる。
るのとは対照的に、内部への知識分散が明確に共通カテゴリに集中している予測に有利に
働く、内在する動的閾値として働く。言い換えると、モジュールBのニューラルネットワ
ーク分類器は、ある物体に対して、既知の物体クラスの中に明確な勝者がいると示すとき
、物体が勝者クラスに属すると認識する。しかし、複数の異なる物体が類似の活性化を有
する(すなわち、明確な勝者はいない)とき、システムは物体が未知であると報告する。
学習プロセスで明示的にラベルを使用するため、「何も知らない」の実装によって、認識
モードに影響を与えるのみであってもよく、学習モードに干渉しない場合がある。
る。入力の提示中、カテゴリ層F2の216は、そのノードにわたって活性化パターンで
応答する。知っている物体を包含する入力には、図3の上の事例のように、卓越した勝者
300がいる可能性が高い。知っている物体を包含しない入力では、図3の下の事例に示
すように、F2層の活動がより一律に分散する可能性が高い。第二事例にさえ、閾値(図
3の点線)より高い活動を伴うノード302がありうるため、全活性化の平均を算出し、
閾値として使用することは、これら二つの事例を区別するには不十分である。図3の上の
事例でのように、明確な勝者300のみが閾値(図3の破線)の上方に留まるように、平
均に1以上のパラメータを乗じることによって、閾値を大きくする。
ゴリ数、およびネットワークの中のカテゴリノードの総数に基づいて自動的に算出できる
。算出の例は、次のとおりである。
式中、θは閾値であり、Cは既知のカテゴリ数であり、Nはカテゴリノード数であり、倍
率sは、モジュールAで使用されるDNNタイプに基づいて設定され、L-DNN準備中
に微調整される。sを高く設定しすぎると、ニューラルネットワークの偽陰性率が増大す
る場合があり、低く設定しすぎると偽陽性率が増大しうる。
果が生み出された。Columbia Object Image Library10
0(COIL-100)データセットの中の100個の物体から50個の物体を、トレー
ニングセットとして使用した。50個の新規物体が、独立型モジュールBによって「何も
知らない」と認識されるように、COIL-100データセットから全100個の物体を
、テストセットとして使用した。トレーニング中、リアルタイム動作をシミュレートする
ようにシャッフルすることは全く行わず、独立型モジュールBのART分類器に1個ずつ
物体を供給した。トレーニング後、ART分類器は95.5%という認識率(物体と「な
い」との組み合わせ)を実証した。比較のために、COIL-100データセットの中の
全100個の物体のシャッフルしていないデータセットを、従来のARTへ供給すると、
認識率は55%のみであった。これは、以下で考察するARTの順序依存性が原因であり
うる。
しい入力をラベル付けするのは、ユーザ次第である。認識されない入力が重要でない場合
、ユーザはその入力を無視でき、ART分類器は「何も知らない」として識別し続けるで
あろう。物体がユーザにとって重要である場合、ユーザはそれをラベル付けでき、高速学
習モジュールBのネットワークによって、物体の特徴および対応するラベルが、知識へ追
加されるであろう。モジュールBは、この新しい物体と関連する特徴セットを強化するよ
うに、この物体を見守り続け、より多くの視点を追加する、トラッカーシステムを作動で
きる。
動作中、モジュールAは特徴を抽出し、物体の圧縮表現を作り出す。畳み込みディープ
ニューラルネットワークは、以下に概説するように、このタスクに非常に適している。
あり、ユニットのフィルタ(重みベクトル)の受容フィールドが、入力の高さおよび幅寸
法にわたって段階的に変わる。視覚入力に適用されるとき、CNNの初期層への入力は高
さ(h)、幅(w)、および一つから三つのチャネル(c)の寸法(例えば、赤、緑、お
よび青色ピクセルの構成要素)を伴う画像であり、一方、CNNのその後の層への入力は
、高さ(h)、幅(w)、および前の層からのフィルタの数(c)という寸法を有する。
各フィルタが小さいため、完全に接続する層と比較して、パラメータの数は大幅に減少し
、(h,w,c)の各々から次の層上の各ユニットへ投影する一意の重みがある。畳み込
み層については、各ユニットは、(f,f,c)と等しい重みの数を有し、fは、hまた
はwのいずれよりも非常に小さい、空間フィルタサイズ(通常、3)である。各フィルタ
を入力中の異なる空間位置で適用することで、物体が一つの空間位置にあるときに分類で
きる場合、物体を含む特徴は、物体の空間位置から独立しているため、物体はすべての空
間位置において分類できるという点で、並進不変という好ましい特性が提供される。
は、入力の小さい空間ウィンドウ(例えば、2×2)を単一値に減少させることによって
、入力の高さ(h)および幅(w)を減少させる。減少には、平均化(平均プーリング)
または最大値の採用(最大プーリング)が使用されている。サブサンプリング層の応答は
、画像の小さな変化に対して不変であり、この効果は、通常のCNNの複数層の上に蓄積
される。推論では、いくつかの畳み込み層およびサブサンプリング層を画像に適用すると
、出力は、並進、回転、拡大縮小、および反りなどまで、入力の様々な変形に対して素晴
らしい安定性を呈し、例えば、続きの(ペンを持ち上げることなく書かれた)手書き数字
についてトレーニングされたネットワークは、トレーニングセットの数字「3」と、小さ
い円をつなげ合わせて書かれた数字「3」とに同様の応答をする。
徴空間が提供され、つまり、入力が変化する(例えば、物体が、画像フレームにおいてわ
ずかに並進して、回転する)とき、出力値の変化は入力値よりも非常に小さくなる。これ
によって学習は可能になるが、例えば、数ピクセル分並進した物体を伴う二つのフレーム
のコード化に、ほとんどまたは全く類似性がない、別の方法の上に学習するのは困難であ
りうる。
勾配降下技法を使用することで、CNNは、よくトレーニングされた物体クラスに対して
、普遍化された素晴らしい性能に到達できる。普遍化とは、トレーニングされたクラス内
で、トレーニングされた画像と同一ではないテスト画像に対して、ネットワークが類似の
出力を生み出せることを意味する。クラスを定義する主要な規則性を学習するには、大量
のデータが必要である。ネットワークが多くのクラスについてトレーニングされている場
合、フィルタが全クラス間で共有される下位層は、すべての自然入力に良好な規則性のセ
ットを提供する。したがって、一つのタスクについてトレーニングされたDNNは、他の
タスクの初期化として使用される場合、または下位層を、新しい高水準表現に対してプリ
プロセッサとして使用する場合、優れた結果を提供できる。自然な画像は統計的特性の共
通セットを共有する。よくトレーニングされたニューラルネットワーク内部の視覚化にお
ける、最近の研究が示すように、下層で学習される特徴は、ほとんどクラスに依存しない
一方、上の層になればなるほど、よりクラスに依存するようになる。
徴の表現を得るように、モジュールAのこれらCNNの能力を活かす。この利点を増大ま
たは最大化するために、L-DNNに使用されるDNNは、可能な限り多くの異なる物体
に対して事前トレーニングされてもよく、そのため、高水準特徴層の物体特異性は、L-
DNNの高速学習能力に干渉しない。
動作中、モジュールBは、新しい物体を迅速に致命的忘却なしに学習する。
モジュールBの一例示的実装は、ARTニューラルネットワークである。ARTでは、
各物体提示に対して勝者ノードを判定するように、カテゴリノード間の競争を利用するこ
とによって致命的忘却を避ける。この勝者ノードが、物体の正しいラベルと関連付けられ
る場合、およびその場合にのみ、学習アルゴリズムがそのノードの重みを更新する。各ノ
ードは一つの物体のみと関連付けられ、学習アルゴリズムは、勝者ノードに対してのみ重
みを更新するため、ARTのいかなる学習エピソードも、たった一つの物体にのみ影響を
与える。したがって、新しい物体がシステムに追加されるとき、前の知識の干渉はなく、
むしろARTは、新しいカテゴリノードを作り出し、対応する重みを更新するのみである
。
裏に使用するのを阻止する、いくつかの不利点がある。これらの不利点のうちの一つ、特
に「何も知らない」の概念の欠如は、ARTに特有なわけではなく、上で考察している。
ART特有の問題およびこれらの問題に対するソリューションのリストを、以下に開示す
る。
スパース入力に上手く対処しない。スパース入力が補数コーディングされるとき、スパー
ス入力に豊富に存在する0の補数が1であるため、補数部分は、構成要素の大部分で高い
活性を有する。これらの1すべてが入力の補数部分にあることから、距離計算中に異なる
入力を互いから分離することが非常に難しくなるため、システムは混乱する。他方で、D
NNのような強力な特徴抽出器は、高水準の特徴抽出時に、もっぱらスパース信号を提供
する傾向がある。ARTパラダイムを保持するが、古典的なファジー設計および補数コー
ディングからは離れることは、L-DNNのモジュールBでARTを使用するには有用と
なる。ソリューションの一つは、補数コーディングを除去し、ファジーARTにより使用
されるファジーANDの距離計量を、ドット積に基づく計量と取り替えることである。こ
のドット積に基づく計量には、結果は正規化されたままであり、ファジーARTへの他の
変更は必要ないという利点がある。
換えると、ARTは一貫性の特性を欠き、異なる入力順が、ARTネットワークの中の対
応する物体の異なる表現につながる。残念ながら、L-DNNのようなリアルタイムオペ
レーティングシステムは、センサからトレーニングデータを受信するときにそれを消費す
るため、一貫性を提供するように、トレーニングデータをシャッフルすることができない
。センサは、リアルタイム動作中頻繁に、第一物体の大部分またはすべてのサンプル、そ
れから後続の物体の全サンプルを提供するため、システムは一度に一つずつ物体表現を学
習する。これによって、他の物体と競争せずに、システムが間違わず、それゆえ物体表現
を適切に精緻化しうるため、いくつかのノードのみが第一物体を提示する状況につながっ
てもよい。他方で、後続の物体は、システムが、第一物体の表現により既に大部分が占有
されている超空間の中へ、その表現を押し込むであろうため、誇大に表現されうる。上に
記載した「何も知らない」のメカニズムによって、早い段階で競争を導入し、第一物体の
きめ細かい表現を保証する。上に記載した集約は、後続の物体の誇大表現になり、それを
減少させ、またはそれを排除する。
ッジデバイスにとって特に有益である。システムが他の方法では分類できない物体のすべ
ての視点に対して、新しいカテゴリノードを作り出すことは、新しい物体が入力として追
加されるとき、ARTシステムのメモリフットプリントが一定の割合で増加することにつ
ながる。上に記載したリアルタイム動作および続いて起こる物体の提示の間、システムは
、次に続く各物体に対して、超線形的に増加する数のノードを作り出す。一部の事例では
、システムは、物体の数に伴い、ノードの数の指数関数的増大を経験する。したがって、
従来のARTを使用する、モジュールBのメモリフットプリントは、物体の数による線形
増加よりも速く増大しうる。最悪の場合、この増大は指数的でありうる。集約によって、
メモリの増大を、物体の数と線形と変わらない速さに抑制し、L-DNNが学習する各物
体に対する、固定サイズのほぼ最適表現を作り出すことが可能になる。
図4は、モジュールAのコアとして修正されたVGG-16のDNNを使用する、全体
画像分類のための例示的なL-DNN実装を表す。ソフトマックスおよび完全に接続した
最後の2層が、元のVGG-16のDNNから除去され、ARTベースのモジュールBが
、VGG-16のDNNの完全に接続した第一層に接続する。類似だがより一層単純なL
-DNNは、VGG-16の代わりにAlexnetを使用して作り出すことができる。
これは非常に単純で計算コストが低いシステムであり、現代のいかなるスマートフォン上
でも動き、GPUもいかなる他の専用プロセッサも必要とせず、スマートフォンのカメラ
により提供される数個の入力フレームから、いかなる物体のセットも学習できる。
画像の中で関心のある物体を検出する一つの手段は、画像をグリッドに分け、各グリッ
ドセル上で分類を行うことである。L-DNNのこの実装では、CNNの以下の特徴が特
に有用である。
処理する。これは、ネットワークもしくはカーネル、ストライド、またはパッドサイズの
どのくらいの深さかにかかわらず、画像上の関心のある特定のエリアに対応する特徴を、
層の類似エリアに、様々な解像度のすべての層上に見つけられることを意味する。例えば
、物体が画像の左上隅にあるとき、対応する特徴は、層の階層に沿って各層の左上隅に見
つかるだろう。したがって、モジュールBを層の場所の各々に取り付けることによって、
モジュールBが、画像の特定の場所上で分類を行い、いずれか知っている物体がこの場所
に存在するかを判定することを可能にする。
入力として使用される各DNN層(またはスケール)につき、モジュールBを一つのみ作
り出さなくてはならない。それゆえ、右上隅にある一つの物体を学習することによって、
モジュールBが画像中のどこででも、その物体を認識することが可能になる。別個のモジ
ュールBへの入力として、異なるサイズ(スケール)の複数のDNN層を使用することに
よって、複数のスケールでの検出が可能になる。これは、次のプロセスにおいて、より細
かいスケールで全体画像を処理することなく、画像の中で物体の位置を微調整するのに使
用できる。
可能なExtractionNetの7×7)の画像をモジュールBへ提供する。モジュ
ールBが、物体を左端から2番目、上端から4番目にあるセルに発見したと示す場合、よ
り細かいDNN入力(例えば、同じExtractionNetの14×14)の対応す
る一部のみを分析して、物体の場所をさらに精緻化すべきである。
使用できる。例えば、DNNは、30×30の層を有する場合、2×2(圧縮因子15)
、3×3(圧縮因子10)、および5×5(圧縮因子6)の層にまで減少されうる。図5
に示すように、モジュールBをこれらの圧縮したDNNの各々へ取り付けると、物体の大
雑把な場所(502、504、506として示す)が得られる。しかし、これらモジュー
ルBの出力が組み合わされている場合(508として示す)、空間解像度は、中心の解像
度がより高く、端に向かって解像度がより低くなる、不均一な8×8グリッドとなる。
)+(5×5)=38回のみ行う一方、均一な8×8グリッドを計算するには、64回モ
ジュールBの計算を行うことに留意されたい。より少ない計算で算出されることに加えて
、中央の36個の場所に対する、図5のマルチスケールグリッドの解像度は、均一な8×
8グリッドの解像度と等しいか、またはそれよりも細かい。したがって、マルチスケール
検出によって、システムは、同等の均一グリッドの計算資源の60%のみを使用して、よ
り正確に物体の場所(510)を示すことができる。この性能差は、合計の2乗(均一グ
リッドに対する計算回数を表す)が、2乗の合計(不均一グリッドに対する計算回数を表
す)よりも早く大きくなるため、より大きな層に対して増加する。
能性が最も高く、危険な衝突の兆候を提示しない周辺の物体よりも、正確に検出されるこ
とから恩恵を受けるため、動くロボットに対して特に有益でありうる。
画像に対して、物体検出は通例、物体の回りに境界ボックスを置き、関連するクラス(
例えば、「犬」)とラベル付けするタスクとして定義される。前セクションのグリッドに
基づく方法に加えて、物体検出技法は通例、境界ボックスを伴う画像の一つ以上の領域を
選択し、その後、そのボックス内の特徴を特定のクラスとして分類しながら、同時に境界
ボックスの場所のオフセットを回帰推定することによって実装される。この物体検出の方
法を実施するアルゴリズムは、Region-based CNN(R-CNN)、Fa
st R-CNN、およびFaster R-CNNを含むものの、位置確認を行わない
いずれの方法も、検出モジュールとして置き換えられてもよい、分類情報に直接依存する
。
クラスラベルを判定するタスクである。セグメンテーションは、同じクラスの二つの別個
の物体からの個々のピクセルの曖昧さを解消する、セマンティックセグメンテーションと
、同じクラスの二つの別個の物体からの個々のピクセルを、一意に識別またはインスタン
ス化する、インスタンスセグメンテーションとに分かれてもよい。画像セグメンテーショ
ンは通例、物体検出方法(R-CNN、Fast R-CNN、またはFaster R
-CNNなど)の境界ボックス出力を取り出し、そのボックスで最も目立つ物体をセグメ
ント化することによって実施される。境界ボックスと関連付けられるクラスラベルが、そ
の後、セグメント化された物体と関連付けられる。境界ボックスに起因しうるクラスラベ
ルがない場合、セグメンテーション結果は破棄される。結果として得られるセグメント化
された物体は、インスタンス情報を有していてもいなくてもよい。このセグメンテーショ
ンの方法を実施する一つのアルゴリズムが、Mask R-CNNである。
L-DNN設計を、図6に提示する。Mask R-CNNなど、静的分類モジュールを
使用する画像セグメンテーションプロセスについて考える。このシナリオでは、静的分類
モジュール600は、L-DNNのモジュールB104と取り替えられてもよい。すなわ
ち、ネットワークのセグメンテーション経路は変わらないままであり、領域は通常どおり
に提案され、続けてセグメント化される。静的分類モジュールを伴う場合のように、L-
DNNのモジュールB104が、閾値を渡す肯定的なクラス予測を全く返信しない(例え
ば、ネットワークがトレーニングされていない、またはセグメント化されたエリアを、上
に記載したような「何も知らない」と認識する場合に生じるような)とき、セグメンテー
ション結果は破棄される。同様に、L-DNNのモジュールB104が許容可能なクラス
予測を返信するとき、静的分類モジュールと同じように、セグメンテーション結果は保持
される。静的分類モジュール600とは異なり、L-DNNのモジュールB104は、ユ
ーザフィードバックによって前者から後者へ状態を変更するように、継続適応を用意する
。
てタグ付けする場合など、直接的に境界ボックスおよびクラスラベルを通して、またはユ
ーザがビデオの中で物体を選択し、その後、物体がビデオ中を通して追跡され、新しい物
体クラスに関する連続フィードバックを提供する場合など、間接フィードバックを通して
提供されてもよい。このフィードバックは、新規のクラスネットワークを経時的に分類す
る方法を、L-DNNにトレーニングするために使用される。このプロセスは、ネットワ
ークのセグメンテーション構成要素には影響を与えない。
ジュールB104への入力は、クラスラベルが、セグメンテーション出力と組み合わせら
れ、セグメント化されラベル付けされた出力602を生み出してもよいように、モジュー
ルAの畳み込み層202の出力へ直接リンクされるべきである。この制約は、両モジュー
ルAおよびBに、領域提案段階の出力を取らせることによって満たされうる。モジュール
Aは、モジュールBのいかなる動的部分にも依存すべきではない。すなわち、モジュール
Bはネットワークの重みに適応しているが、モジュールAが静的であるため、モジュール
Bが重みを変更し、その後、その出力をモジュールAへ渡すべき場合、モジュールAは、
ほとんどの静的ニューラルネットワークが、ネットワークの入力表現の急な変更に対処で
きないため、性能の低下を見る可能性が高いであろう。
L-DNNを実装する複数のリアルタイムに動作する機械は、L-DNNを通して新し
い情報をオンザフライで個々に学習できる。一部の状況では、次のセクションに記載する
、いくつかの使用事例で概説するように、リアルタイムに動作する機械間で知識を共有す
ることは有利でありうる。リアルタイムに動作する機械がエッジで新しい知識を学習する
ので、新しい知識を共有するために、各リアルタイムに動作する機械は、エッジから中央
サーバへまたは他のリアルタイムに動作する機械へ、新しい情報の、圧縮され普遍化され
た表現(モジュールBのシナプスの重み行列という観点から、ネットワークに表される)
を送信する。次のステップを実施することによって、各リアルタイムに動作する機械によ
り取得される知識を、中央サーバでまたは直接エッジデバイス上のいずれかで、抽出し、
加えて、集約し、集中型通信またはピアツーピア通信によって、他のリアルタイムに動作
する機械と共有できる。
る機械は、新しい情報をL-DNNによってオンザフライで学習できる。ユーザは、リア
ルタイムに動作する機械が新しい物体および/または新しい知識に遭遇していると分かる
と、リアルタイムに動作する機械が、新しい物体および/または新しい知識をオンザフラ
イで学習できるように、新しい物体にラベルを提供し、高速学習モードをトリガできる。
このように、リアルタイムに動作する機械は、その挙動を修正し、迅速に新しい物体およ
び/または新しい知識に適応できる。
速学習モジュールBで集約プロセスを動かす。このプロセスによって、新しい物体の表現
を圧縮し、以前から既知である物体の表現と統合し、ネットワークの普遍化能力を向上さ
せ、モジュールBのメモリフットプリントを削減する。ARTネットワークに基づく例示
的実装について、以下で詳細に示す。
ミッション完了後に、リアルタイムに動作する機械は、その高速学習モジュール(モジュ
ールB)の集約された重み行列を、有線または無線通信チャネルを通して中央サーバ(例
えば、クラウドベースのサーバ)へ伝送できる。一部の例では、各リアルタイムに動作す
る機械の高速学習モジュールの重み行列を、外部記憶デバイスへダウンロードでき、中央
サーバへ物理的に連結できる。中央サーバが利用可能でない、または望ましくないとき、
通信はリアルタイムに動作する機械(エッジデバイス)間にピアツーピア形式で生じうる
。
る機械からの重み行列が、中央サーバまたはエッジデバイスのうちの一つで収集された後
、中央サーバまたはエッジデバイスは、各リアルタイムに動作する機械から新しく取得さ
れる知識を組み合わせ、単一の重み行列へ圧縮し、集約する混合ユーティリティを動かす
ことができる。混合ユーティリティによって、システム全体の精度を保ちながら、結果と
して得られる行列のメモリフットプリントを削減し、冗長性を除去する。ARTネットワ
ークに基づく例示的実装について、以下で詳細に示す。
列は、その後、有線もしくは無線通信チャネルを通して、または物理的外部記憶/メモリ
デバイスへダウンロードし、記憶/メモリデバイスをリアルタイムに動作する機械へ物理
的に輸送することによって、一つ以上のリアルタイムに動作する機械へダウンロードされ
る。
れらの機械の各々により学習される新しい知識を、他のリアルタイムに動作する機械と共
有できる。
図7Aは、ARTを使用する例示的な頭脳集約および混合プロセスを示す。図では、次
のように既定のARTプロセスを拡張する。層F2の216にあるARTのカテゴリノー
ドの各々は、ある物体を表し、各物体は、それを表す一つ以上のカテゴリノードを有する
。図7Aの左側は、層F1の212により活性化される、層F2の216にあるカテゴリ
ノードに対する重みパターン702を示す。各重みパターンは、層F1の212へ提供さ
れる、複数の現実の特徴入力210から学習された、普遍化された入力パターンを表す。
ARTでの学習は、カテゴリノードおよび対応する物体が、競争に勝利していて、問題の
物体を正しく識別しているときにのみ生じることに留意されたい。
された後の、層F2の216にある異なるカテゴリノードの重みパターン702を示す。
各重みパターン702は、対応するノードが、対応する物体ラベルと同一であるとするよ
うに学習した入力の普遍化バージョンを表す。図7Aの中央にある重みパターン702は
、図7Aの右に示す集約入力704になる。
で、重みパターン702の収集は、ARTネットワークがトレーニング中に触れた、入力
210すべての普遍化である。このように、重みパターン702は、入力210の重要な
特徴も、または元の入力210よりも良好な重要な特徴を表し、トレーニングプロセス中
、現実の入力の代用として機能できる。
プが生じる。
、集約入力セット(図7Aの右側)ai=wiに加え、式中、aは入力ベクトルであり、
wは重みベクトルであり、iは1からネットワークの中にある既存のカテゴリノードの数
までである。ARTネットワークが補数コーディングを使用する場合、重みベクトルの半
分の補数を解除(decomplemented)し、ベクトルの最初の半分で平均する
(ai=(wi+(1-wic))/2)。集約入力セットの各ベクトルは、それぞれの
カテゴリノードから抽出された対応するラベルを受け取る。
のため、ARTネットワークは空白の初期状態になる。
たのと同じようにこのセットを学習する。無作為にシャッフルすることによって、従来の
ARTネットワークにおける順序依存性の影響を低減し、ARTネットワークが、よりコ
ンパクト(作り出されるカテゴリノードがより少ない)でより最適な(より優れた普遍化
)表現を構築することが可能になる。
と置き換わるというさらなる利点があり、そのため、集約プロセスによって複雑さが減少
し、元の学習プロセスよりも計算時間が速くなる。
セスによって、モジュールBのARTベースの実装のメモリフットプリントを削減し、A
RTに基づくシステムの順序依存性を低減する。このような動作中に、システムが動作す
るにつれてシステムの中へ入ってくる感覚入力の順序を変更する手段がないため、順序依
存性の低減は、L-DNNに基づく、いかなるリアルタイムに動作する機械にも有益であ
る。集約は、ユーザ作用によって、もしくはメモリフットプリントが大きくなりすぎると
き(例えば、閾値サイズに到達するか、またはそれを超過する)に自動で、または動作期
間に基づいて定期的にトリガできる。
ネットワークへ意図的に提示される、COILデータセットに対して行われた。最初のト
レーニングには、集約トレーニングよりも4.5倍長くかかった。集約によって、メモリ
フットプリントを25%削減し、物体認識性能は50%の正解から75%の正解へと向上
した。トレーニングデータセットが最初にシャッフルされて、順序のアーチファクトを減
少させた事例では、集約は依然として性能の向上を示した。初期トレーニング後に、シス
テムが既に十分圧縮されていたため、著しいメモリフットプリントの削減はなかったが、
物体認識に対する正解率は平均で87%から98%へと上昇した。これらの実験結果は、
予想外に大きな性能改善を表している。
み合わされる集約の延長である。融合は、集約のすべての利点を継承し、ARTネットワ
ークの普遍化特性から利益を得る。結果として、複数の融合されたARTネットワークが
、同じ物体の知識を有するとき、複数のARTネットワークにわたるこの物体の類似表現
すべてが、ART学習プロセスによって自然に共に組み合わされ、一方ですべての特徴的
な表現は保存される。これは、物体表現の賢い圧縮、および融合されたシステムのメモリ
フットプリントのさらなる削減につながる。
し、別のARTインスタンスで33個の物体(2セットで17個の物体が同じ)を学習す
る場合、第一インスタンスに対して92.9%の正解、および第二インスタンスに対して
90.5%の正解となる。それらを共に融合することで、両ARTインスタンスによって
学習される、全66個の一意の物体に関して、97%正解のネットワークを作り出す。加
えて、融合バージョンは、二つのネットワークの総当たりの組み合わせが有するであろう
うちの、83%のメモリフットプリントを有する。さらに、融合バージョンのメモリフッ
トプリントは、第一ネットワークと、第二ネットワークの新しい物体のみとの組み合わせ
(重複する17個の物体を除く)よりも3%小さい。したがって、混合によって実際に、
精度を向上するように、賢く圧縮し、物体表現を精緻化する。入力を無作為にシャッフル
しない場合、混合の結果は、正確性の点でより一層卓越し、85.3%および77.6%
正解のネットワークを混合すると、組み合わせた二つのネットワークのメモリフットプリ
ントの84.6%を有する、96.6%正解のネットワークとなる。これらの混合実験結
果は、予想外に大きな性能改善を表している。
L-DNNに基づくシステムはさらに、コンテキスト情報を現在の物体情報と組み合わ
せることによって、性能精度を向上できる。コンテキストL-DNNは、ある物体が入力
ストリームで共起する可能性が高いことを学習しうる。例えば、ラクダ、ヤシの木、砂丘
、およびオフロード車は、砂漠の場面に典型的な物体であり(図7Bを参照)、一方、家
、スポーツカー、オークの木、および犬は、郊外の場面にコンテキスト典型的な物体であ
る。ドローンの入力として取得された、ピクセルレベルで局所的に曖昧な情報は、コンテ
キストに応じて、二つの物体クラス(例えば、ラクダまたは犬)にマッピングできる。両
方の事例で、物体の焦点には、低解像度画像によくある、曖昧な表現がある。砂漠の場面
では、ラクダのピクセル化画像は、「ラクダ」がL-DNNによって推察される可能性の
高いクラスの4番目であり、最もありうるのは、局所ピクセル情報のみに基づくと「馬」
であるものの、場面に関する大局情報、および物体間で学習された過去の関連付けによっ
て見出すことができる。コンテキストの物体(砂丘、オフロード車、ヤシの木)が、「ラ
クダ」と関連付けられる過去にあったことがあり、そのため、コンテキスト分類器は「馬
」クラスを覆して、「ラクダ」クラスを選ぶことができる。同様に、「家」、「スポーツ
カー」、および「オークの木」を包含する都会の場面では、同じピクセルセットが「犬」
にマッピングされうる。
DNNシステムは、人間の分析者/ユーザに、物体をより詳しく見るように促してもよい
。この異常検出および警告サブシステムによって、コンテキストを使用して、正常な物体
の識別の曖昧さを解消することによって、場面に属さない、関心のある識別物体間のバラ
ンスを取ることができる。
物体分類が必要であることは、最大確率を持つラベルを、コンテキスト分類器への入力と
して与えることで避けられる。このように、物体の各固定時に、コンテキスト分類器は、
物体ラベルの推量を繰り返し精緻化できる。
莫大な量の非構造化コンテンツによって、ラベルなしでも、価値のあるレーニングデー
タがL-DNNのモジュールAに提供される。貪欲な層単位の事前トレーニング(gre
edy layer-wise pre-training)として知られる技法によっ
て、DNNが、各層を順にトレーニングすることによって、ボトムアップからの教師なし
学習を行うことが可能になる。層単位のトレーニングメカニズムは、コントラスティブダ
イバージェンス、すなわち、ノイズ除去オートエンコーダおよび畳み込みオートエンコー
ダを含む。オートエンコーダは、入力を取り込み、重みおよび転送機能によってコード化
し、入力再構成誤差の点から出力を評価する。層をトレーニングした後に、その出力は次
の層の入力になる。事前トレーニングされたネットワークは、いかなるディープネットワ
ークの恩恵をも享受し、すなわち、例えば、層1上の学習エッジ、層2上のコーナーおよ
び他のエッジグループ、ならびに後の層における高次データに固有の特徴といった、有用
な階層特徴の関係をしばしば捕捉する。さらに、畳み込みの変形は、畳み込みネットワー
クの生来の並進不変を享受する。
レーニングと呼ばれる。多くの場合、事前トレーニングされるネットワークの性能は、事
前トレーニングなしのネットワークより優れている。大量のラベル付きデータがある場合
、ラベルが分析者に何らかの負荷をかけるため、事前トレーニングされるネットワークは
、事前トレーニングなしのネットワークにかなわない。事前トレーニングされる「環境固
有の」ネットワークは、ラベル付けの負荷を低く抑えながら、L-DNNシステムの認識
性能を、他の事前トレーニングされるネットワークよりも向上させるだろう。言い換える
と、分析者の報告に起因する限定的ラベルに加えて、ラベルのないデータに関してトレー
ニングされるDNNは、比較的少数の分析者の報告だけでなく、別の大量にラベルの付い
たデータセットからもトレーニングされるDNNを上回る性能の向上につながる。
、別のメリットがある。ARTは、学習用のラベルを必要としないが、利用可能なときに
は、ラベルを活用できることを意味する、「半教師付き」とみなされうる。ARTは、各
ノードに対して、最も一致した観察のフレームおよび画像領域用の検索情報を記憶しなが
ら、教師なし学習モードで操作することによって、ラベルのないデータの組織化を支援す
る。各ARTノードによって、分析者が多くの類似する観察にアクセスし調査することが
可能になりうる。
次の使用事例は、L-DNNが、様々な現場で技術上の問題にどのように取り組みうる
かの非限定的な例である。
例えば、送電線、基地局鉄塔、または風力タービンといった産業インフラの調査プロセ
スを自動化したい、ドローンサービスプロバイダについて考える。既存のソリューション
では、調査が必要な主要構成要素を含むフレームを見つけるために、調査官がドローンの
ビデオを何時間も見る必要がある。調査官は、フレームの各々で、これらの主要構成要素
を手動で識別しなくてはならない。
体または異常のラベルを含むデータを、従来の低速DNN工場トレーニング中に、事前ト
レーニング済みセットとして、L-DNNベースのアシスタントへ提供できる。以下に記
載するように、高速学習モード中に、ユーザがこのセットへ追加することができる。
取得されるビデオを再検討するのに使用されるコンピュータ上に含むことができる、L-
DNNベースのアシスタントの動作を示す。ドローン800は、通信塔820、太陽電池
パネル830、風力タービンファーム840、または送電線分配850などの構造(これ
らは例示的な構造にすぎず、他の構造も想定されうる)を調査する。ドローンオペレータ
810は、ドローンの手動制御を使用していてもよく、または自動で機能するドローンを
監視していてもよい。制御室にいる分析者などの人間の分析者805は、ドローン800
からの感覚入力(例えば、ビデオ、ライダーなど)100を所有する、L-DNNシステ
ム106のモジュールB104へ、ドローンが飛行しているときにラベルを提供、または
飛行を掲載できる。
する。ドローン800が、これらの送電線850、基地局鉄塔820、および風力タービ
ン840を調査している間に、ビデオフレーム100を取得すると、L-DNN106の
モジュールA102は、事前トレーニングされたデータに基づいて、ビデオフレーム10
0から画像の特徴を抽出する。モジュールB104はその後、これらの特徴に基づいて、
各物体に可能性の高いラベルを提供する。この情報はユーザ805へ渡される。ユーザ8
05は、ラベルが意に満たない場合、高速学習モードを作動させて、モジュールBのネッ
トワークを正しいラベルで更新できる。このように、ユーザが提供する情報によって現在
のラベルを補正してもよい。したがって、高速学習サブシステムは、更新後の第一フレー
ムと同じくらい早く、送電線、基地局鉄塔、および風力タービンなど、既に学習した物体
の位置および特徴を判定するように、一試行の学習を利用できる。前に撮ったビデオを分
析する場合、それはユーザが補正を導入した直後を意味する。したがって、システム10
6は、時間と共により知識が豊富になり、ユーザの助けで経時的により良い識別を提供す
る。
能力のないドローン800および900、ならびにスマートなドローン910)が、同期
的または非同期的にデータを収集する、図8の普遍化された事例としてどのように適用で
きるかを示す。各ドローンと関連付けられたL-DNNにより学習される情報は、マージ
され(組み合わされ、または混合され)他のドローンへプッシュバックされるか、ドロー
ン間のピアツーピアで共有するか、またはモジュールB104を包含する中央サーバと共
有するかできる。中央サーバは、個々のL-DNNが学習した情報をマージし、ドローン
910を含む全ドローンへマージした情報をプッシュバックし、ドローン910は、ドロ
ーン800および900により取得されたデータに由来する、通信塔820、太陽電池パ
ネル830、風力タービンファーム840、または送電線分配850に関する情報に触れ
ていなかったが、マージプロセスのおかげで、これらの項目をここで理解し分類できる。
上に記載したシステムは、コンサートで動作する、複数の機械またはカメラ(固定され
た、ドローンに取り付けられた、など)に対して拡張できる。複数の異なる地理的場所に
、大きな倉庫を持つ会社について考える。手作業で大きな倉庫の棚卸しをすると、多くの
人時がかかる可能性があり、大抵その時間中、倉庫を閉める必要がある。既存の自動化ソ
リューションでは、隠れている場合がある、積み重なった物体を識別するのが困難である
。加えて、既存の自動化ソリューションでは、一つの地理的場所で学習される情報は、他
の場所へ転送されない。一部の例では、異なる地理的場所で収集される莫大な量のデータ
のため、これらの自動化ソリューションは、新しいデータを学習し、新しいデータに作用
するのに何週間もかかりうる。
0a~1010c、またはロボットもしくはドローン上に載置された移動カメラ)が、セ
ンサへ接続する様々なL-DNNモジュールを介して、在庫の中の新しい項目をオンザフ
ライで学習できる、図10に示すような、倉庫、産業施設、または流通センターの環境へ
適用可能である。加えて、805および1005にいるオペレータは、分散的なやり方で
新しい情報を様々なL-DNNモジュールへ教えうる。この新しい知識は、中央に統合さ
れるか、またはピアツーピアで伝達されるかして、混合の後に各個々のデバイス(例えば
、カメラ1010)へプッシュバックされうる。
ついて考える。これらのカメラ1010の各々は、コンベアベルト上の物体の対応するビ
デオ画像100を取得し、その画像100を対応するL-DNN106a~106c(ま
とめて、L-DNN106)へ提供する。L-DNN106は、例えば、調査、仕分け、
または他の流通センター機能のために、画像100の中の既知の物体を認識する。
または「何も知らない」として、未知の物体をタグ付けする。例えば、未知の物体104
0により提示されるとき、L-DNN106aは、人間のオペレータ805による分類の
ために、未知の物体1040にフラグを立てる。同様に、L-DNN106cは、人間の
オペレータ805による分類のために、未知の物体1060にフラグを立てる。L-DN
N106bは、未知の物体1050が提示されると、単純に未知の物体1050を「何も
知らない」とタグ付けする。L-DNN106へ連結する独立型モジュールB104dは
、L-DNN106aおよび106cにより人間のオペレータ805および1005から
取得される知識をマージし、モジュールB104bが、物体1040および1060の今
後のインスタンスを認識できるように、L-DNN106bのモジュールB104bへ知
識をプッシュする。
わせ、および/または類似のものなど、倉庫の中の既存の目印を認識するように、事前に
トレーニングできる。これによって、システムが、センサを装備する、またはセンサ(例
えば、カメラ1010)により取得される画像に現れる無人車両の位置を、三角測量する
ことが可能になる。各車両のL-DNNは、上に記載した使用事例と全く同じように動作
する。このように、複数の無人車両からの知識は、集約され、混合され、各無人車両へ戻
して再分配できる。すべての場所からの知識の集約および混合は、上の集約および混合セ
クションに記載したように、中央サーバにより行うことができ、加えて、ピアツーピアで
の混合も適用できる。したがって、倉庫業務への最小限の混乱で、複数の倉庫において、
在庫を取り出し、知識を集約できる。
消費者のスマートフォンおよびタブレットなどの消費者のモバイルデバイス、またはモ
バイルカメラ、装着式カメラ、ならびに公共の安全のために第一対応者および公共安全担
当者により使用される、手持ち式LTEデバイスなどの専門デバイスの分散型ネットワー
クについて考える。消費者のデバイスは、写真を撮る時など、消費者の周囲を理解するた
めに使用できる。これらの場合、本明細書に記載するL-DNN技術が、図11に示すス
マートフォンまたはタブレットデバイス1110、1120、および1130に適用でき
る。個人(例えば、ユーザ1105および1106)は、デバイス1110および113
0のL-DNNモジュール106にそれぞれ知識を教え、この情報をピアツーピアで、ま
たはモジュールB104を包含するサーバ1190上でマージしうる。サーバ1190は
、マージした知識を、元のトレーニング1020に参加しなかったデバイスを場合により
含む、一部またはすべての接続デバイスにプッシュバックする。
を学習でき、ユーザは、各L-DNNに、写真の態様と関連付けられた一部のカスタマイ
ズされた作用(例えば、これら物体のクラスまたはエリアに、フィルタまたは画像の歪み
を適用する)を教えることができる。組み合わせて学習された作用は、デバイスにわたり
ピアツーピアでもしくはまとめて、共有、マージ、または組み合わされうる。加えて、L
-DNN技術は、入力変数が感覚的または非感覚的でありうる(スマートフォンのすべて
の使用パターン)、スマートフォン使用を普遍化した使用事例に適用できる。入力変数お
よび出力変数の任意の組み合わせでありうる、これらの使用パターンは、スマートフォン
レベルで学習され、中央のL-DNNモジュール104へプッシュされ、マージされ、個
々のデバイスへプッシュバックできる。
または疑わしい物体を探すことができる。このような状況では、警官および/または第一
対応者には、時間を無駄にする余裕はない。警官および/または第一対応者に提供される
既存のソリューションでは、カメラからのビデオフィードを、手動で分析し整理する必要
がある。このようなソリューションは、中央サーバを使用して物体を分析および識別する
ため、時間がかかりすぎる。すなわち、このようなソリューションには、ビデオデータを
クラウド/中央サーバで分析する必要があるため、大きな遅延問題がある。これは、デー
タを受信すると即座に行動する必要がしばしばある、第一対応者/警官には深刻な障害と
なりうる。加えて、ビデオデータを連続して中央サーバへ送信することで、通信チャネル
に負担がかかりうる。
用することによって、データをエッジ自体で学習し分析できる。消費者は、その場で自身
のデバイスをカスタマイズすることを学習でき、警官/第一対応者は、人/物体の場所を
探して提供するだけでなく、警官が能動的に見ていないかもしれない、関心対象の人/物
体を所々で探して識別もできる。L-DNNは、リモートサーバ上でオペレータから学習
する代わりに、現場のデバイス上で警官から学習するように高速学習モードを利用して、
集中型学習と関連付けられる遅延問題を低減または排除できる。
空、水といった場面の一部分など)をラベル付けするとき、画像の中の構成要素をラベル
付けするための、携帯電話のL-DNNの動作を示しうる。加えて、警察官は、ビデオフ
レームにアクセスして、疑わしい人/物体を識別できる。携帯電話がビデオフレーム10
0を取得すると、モジュールA102は、事前にトレーニングされたデータに基づいて、
これらのフレームから画像の特徴を抽出できる。モジュールB104はその後、これらの
特徴を使用して、各物体に可能性の高いラベルを提供できる。例えば、人物Aが近所Bに
住み、過去に近所Bで観察されていた場合、人物Aは、近所Bの「住民」としてラベル付
けされてもよい。したがって、高速学習サブシステムは、早ければ学習の第一フレーム後
即座に、家、木など、既に学習した物体の相対位置および特徴を判定するように、一試行
の学習を利用できる。より重要なことは、中央サーバ110上のディスパッチャによって
、サーバ側のL-DNNに見出すべき新しい物体を導入することができ、新しい物体は、
必要に応じて混合され、現地の第一対応者へ分配されるだろう。
新しい物体を迅速に学習する、L-DNNの能力をより活用している。調査および在庫収
集中は、大抵ほとんど時間的制約がなく、メモリを低速学習モードで集約できる一方、第
一対応者の場合、エリア中の全デバイスが、容疑者または行方不明の子供を探し始めるこ
とができるように、できるだけ速く複数のデバイスからの知識を集約し混合することが重
要でありうる。したがって、一人の第一対応者により導かれる新しい物体を、迅速に学習
し、ほぼ瞬時にサーバ上で集約し、エリア中のすべての第一対応者へ分配するL-DNN
の能力は、この使用事例にとってとてつもなく大きな利点となる。
本明細書に記載するL-DNN技術は、図12に示すように、個々の計算ノードまたは
大きなデータセンターのサーバ1200において、DNNプロセスの計算時間を低減する
道具として適用できる。L-DNN技術によって、DNNにおける学習が桁違いに速くな
る。この特徴を使用して、劇的にサーバ上での計算資源の必要性を減少させるか、または
計算資源の消費を削減でき、情報は、大抵数時間/数日/数週間のトレーニング時間を必
要とする、大規模なデータセット100に対して、ほとんど数秒もかからずに学習できる
。L-DNNの使用はまた、電力消費を削減し、データセンターのサーバ資源1200を
全体的により上手く利用することにもなる。
上に記載したように、L-DNNによって、オンザフライ(ワンショット)学習をニュ
ーラルネットワークシステムに提供できる。逆に、従来のDNNはしばしば、新しい物体
を学習するのに、数千回または数百万回の繰り返しサイクルを必要とする。繰り返しサイ
クル当たりのステップサイズが大きくなるほど、損失関数の勾配が、実際の性能向上につ
ながりうる可能性が低くなる。故に、これら従来のDNNは、トレーニングサンプルごと
に、重みに小さな変更をもたらす。これによって、新しい知識をオンザフライで追加する
のが非常に困難になる。対照的に、高速学習ニューラルネットワークを伴うL-DNNで
は、ほとんどトレーニング例がなくても、安定した物体表現を学習できる。一部の例では
、たった一つのトレーニング例でも、L-DNNに十分でありうる。
用するため、従来のDNNを悩ます「致命的忘却」に耐性がある。致命的忘却では、新し
い入力がDNNへ提供されると、DNNのすべての重みがサンプル提示ごとに調整されて
、新しい入力を学習すると、DNNに古い入力の分類方法を「忘れ」させる。致命的忘却
は、新しい入力を含め、入力の完全なセットを単純に再学習することによって避けること
ができるが、再学習は時間がかかりすぎて実践的ではない。一部の既存のアプローチは、
重みの重要性に基づいて選択的に重みを制限するか、DNNのサブネットワークをトレー
ニングするか、または致命的忘却を避けるようにモジュール式のアプローチを使用するか
のいずれかである。しかしながら、このようなアプローチは、低速であるだけでなく、D
NNをトレーニングする複数回の繰り返しサイクルも必要とする。対照的に、L-DNN
によって、再トレーニングなしで、高速で安定的な学習能力を実現する手段を提供する。
またL-DNNによって、単一の例でおよび/または単一回の繰り返しサイクルで物体表
現の安定的学習も促進する。
書に記載の機能を実施し、ならびに/または結果および一つ以上の利点を得るための、様
々な他の手段および/または構造を容易に想定し、かかる変形および/または変更の各々
は、本明細書に記載の発明に関する実施形態の範囲内であるとみなされる。より一般的に
は、当業者は、本明細書に記載するすべてのパラメータ、寸法、材料、および構成が例示
を意味し、実際のパラメータ、寸法、材料、および/または構成が、本発明の教示が使用
される特定の一つまたは複数の用途に依存することを容易に理解するだろう。当業者は、
本明細書に記載する特定の発明に関する実施形態の多くの同等物を認識し、またはただ通
常の実験を用いて確認することができる。したがって、前述の実施形態は、例としてのみ
提示され、添付した特許請求の範囲およびその同等物の範囲内であり、発明の実施形態が
、具体的に記載し請求する以外の形でも実践されうることを理解されたい。本開示の発明
に関する実施形態は、本明細書に記載する個々の特徴、システム、物品、材料、キット、
および/または方法を対象とする。加えて、二つ以上のこのような特徴、システム、物品
、材料、キット、および/または方法の任意の組み合わせは、このような特徴、システム
、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の本発明の
範囲内に含まれる。
ハードウェア、ソフトウェア、またはそれらの組み合わせを使用して実施されてもよい。
ソフトウェアに実装される場合、ソフトウェアコードは、単一のコンピュータに提供され
るか、複数のコンピュータ間に分散するかにかかわらず、任意の適切なプロセッサまたは
プロセッサの集合で実行され得る。
ラップトップ型コンピュータ、またはタブレット型コンピュータなど、多数の形態のいず
れかで具現化されうることは理解されるべきである。加えて、コンピュータは、概してコ
ンピュータとみなされるデバイスではなく、パーソナルデジタルアシスタント(PDA)
、スマートフォン、またはいかなる他の適切な携帯型もしくは固定電子デバイスを含む、
適切な処理能力を持つデバイスの中に埋め込まれてもよい。
スは、とりわけ、ユーザインターフェースを提示するために使用できる。ユーザインター
フェースを提供するために使用できる出力デバイスの例には、プリンタまたは出力の視覚
的表現のためのディスプレイ画面、およびスピーカーまたは出力の可聴表現のための他の
音声発生デバイスが挙げられる。ユーザインターフェースに使用できる入力デバイスの例
には、キーボード、ならびにマウス、タッチパッド、およびデジタイザタブレットなどの
ポインティングデバイスが含まれる。別の例として、コンピュータは、音声認識によって
または他の可聴フォーマットで、入力情報を受信してもよい。
ットワークなどの広域ネットワーク、およびインテリジェントネットワーク(IN)また
はインターネットを含む、任意の適切な形態の一つ以上のネットワークによって相互接続
されてもよい。このようなネットワークは、任意の適切な技術に基づいてもよく、任意の
適切なプロトコルに従って動作してもよく、無線ネットワーク、有線ネットワーク、また
は光ファイバーネットワークを含んでもよい。
たはプラットフォームのうちのいずれか一つを用いる、一つ以上のプロセッサ上で実行可
能なソフトウェアとしてコード化されてもよい。加えて、このようなソフトウェアは、多
数の適切なプログラミング言語および/またはプログラミングもしくはスクリプトツール
のいずれかを使用して記述されてもよく、またフレームワークもしくは仮想マシン上で実
行される、実行可能なマシン語コードまたは中間コードとしてコンパイルされてもよい。
してきた。方法の一部として行われる行為は、任意の適切な手段で順序付けられうる。し
たがって、行為が例示するものとは異なる順序で行われる実施形態を構築してもよく、そ
れは、例示的実施形態に連続する行為として示す場合であっても、一部の行為を同時に行
うことを含みうる。
よりそれらの全体が組み込まれる。
書の定義、および/または定義された用語の通常の意味を統制するものと理解されるべき
である。
確にそうでないと示されない限り、「少なくとも一つ」を意味すると理解されるべきであ
る。
合された要素の「いずれかまたは両方」を意味し、すなわち、一部の場合には接続的に存
在し、他の場合には離接的に存在する要素を意味すると理解されるべきである。「および
/または」で挙げられる複数の要素は、同じ形式、すなわち、等位接続される要素のうち
の「一つ以上」と解釈されるべきである。他の要素は、具体的に識別される要素に関連す
るかまたは関連しないかにかかわらず、「および/または」節によって具体的に識別され
る要素以外に、随意に存在してもよい。したがって、非限定的な例として、「Aおよび/
またはB」への言及は、「備える」などの制限のない語法と連動して使われるときに、一
実施形態においては、Aのみ(任意選択的にB以外の要素を含む)、別の実施形態では、
Bのみ(任意選択的にA以外の要素を含む)、さらに別の実施形態では、AとBと両方(
任意選択的に他の要素を含む)などを指すことができる。
および/または」と同じ意味を有すると理解されるべきである。例えば、リスト内の項目
を分離するとき、「または」または「および/または」は包括的なもの、すなわち、多数
の要素のまたは要素のリスト、および随意にリストに無い追加の項目のうちの少なくとも
一つを含むが、二つ以上も含むと解釈されるものとする。それとは反対であると明確に指
示した用語のみ、例えば、「のうちの一つのみ」もしくは「のうちの正確に一つ」、また
は特許請求の範囲において使用するときの「から成る」は、多数の要素またはリストの要
素のうちの正確に一つの要素の包含を指す。概して、本明細書で使用する場合、「または
」という用語は、「いずれか」、「のうちの一つ」、「のうちの一つのみ」、または「の
うちの正確に一つ」など、排他性の用語が先行するときには、排他的な選択肢(すなわち
「両方ともでなくどちらか一方」)を示すとのみ解釈されるものとする。「から基本的に
成る」は、特許請求の範囲で使用する場合、特許法の分野において使用される通常の意味
を有するものとする。
「少なくとも一つ」という語句は、要素のリストの中の要素のいずれか一つ以上から選択
される、少なくとも一つの要素を意味するが、要素のリスト内で具体的に列挙したありと
あらゆる要素の少なくとも一つを必ずしも含むわけではなく、要素のリストのいかなる要
素の組み合せも除外するものではない、と理解されるべきである。この定義はまた、「少
なくとも一つ」という語句が指す、要素のリスト内で具体的に識別される以外の要素が、
具体的に識別される要素に関連があるか関連が無いかにかかわらず、任意に存在しうるこ
とを許容する。したがって、非限定的な例として、「AおよびBのうち少なくとも一つ」
(または、等価的に、「AまたはBのうちの少なくとも一つ」、もしくは、等価的に「A
および/またはBのうちの少なくとも一つ」)は、一実施形態においては、Bは存在せず
、少なくとも一つの、任意選択的には二つ以上を含むA(任意選択的にB以外の要素を含
む)、別の実施形態においては、Aは存在せず、少なくとも一つの、任意選択的には二つ
以上を含むB(任意選択的にA以外の要素を含む)、また別の実施形態においては、少な
くとも一つの、任意選択的には二つ以上を含むA、および少なくとも一つの、任意選択的
には二つ以上を含むB(任意選択的に他の要素を含む)などを指すことができる。
mprising)」、「含む(including)」、「持つ(carrying)
」、「有する(having)」、「包含する(containing)」、「伴う(i
nvolving)」、「保つ(holding)」、「から構成される(compos
ed of)」、および類似のものは制限がないと理解され、すなわち、含むがそれに限
定はされないということを意味する。「から成る(consisting of)」およ
び「から基本的に成る(consisting essentially of)」とい
う移行句のみが、米国特許局の特許審査手続便覧、セクション2111.03に記載され
ている、それぞれ閉鎖的または半閉鎖的な移行句であるものとする。
なお、親出願の出願当初の特許請求の範囲の記載は以下の通りである。
請求項1:
環境の中の物体を分析する方法であって、
センサによって、前記環境の中の前記物体を表すデータストリームを収集することと、
前記センサへ動作可能に連結するプロセッサ上で動くニューラルネットワークによって、前記データストリームから畳み込み出力を抽出することであって、前記畳み込み出力は、前記物体の特徴を表す、ことと、
前記ニューラルネットワークへ動作可能に連結する分類器によって、前記畳み込み出力に基づいて前記物体を分類することと、を含む、方法。
請求項2:
前記センサは画像センサであり、前記データストリームは画像を含む、請求項1に記載の方法。
請求項3:
前記特徴のセットを抽出することは、
前記第一画像の複数のセグメント化サブエリアを生成することと、
前記ニューラルネットワークによって、前記複数のセグメント化サブエリアの各々をコード化することと、を含む、請求項2に記載の方法。
請求項4:
前記特徴セットを抽出することは、
ユーザが、前記データストリームの中で関心のある部分を選択することが可能になることと、
前記ユーザが、前記関心のある部分を複数のセグメントに分割することが可能になることと、
前記ニューラルネットワークによって、前記複数のセグメントの各々をコード化することと、を含む、請求項1に記載の方法。
請求項5:
前記センサは、ライダー、レーダー、または音響センサのうちの少なくとも一つであり、前記データストリームは、ライダーデータ、レーダーデータ、または音響データのうちの対応する一つを含む、請求項1に記載の方法。
請求項6:
環境のデータストリームを収集するセンサであって、前記データストリームは、前記環境の中の物体を表す、センサと、
前記画像センサへ動作可能に連結する少なくとも一つのプロセッサであって、(i)前記物体の前記特徴を表す畳み込み出力を、前記データストリームから抽出するように、ニューラルネットワークを、および(ii)前記畳み込み出力に基づいて前記物体を分類する分類器を実行する、少なくとも一つのプロセッサと、を備える、装置。
請求項7:
前記センサは、画像センサ、ライダー、レーダー、または音響センサのうちの少なくとも一つを備える、請求項6に記載の装置。
請求項8:
前記ニューラルネットワークは、ディープニューラルネットワーク(DNN)を含む、請求項6に記載の装置。
請求項9:
前記ニューラルネットワークは、適応共鳴理論(ART)ネットワークを含む、請求項6に記載の装置。
請求項10:
リアルタイムに動作する機械に、生涯学習ディープニューラルネットワーク(L-DNN)を実装する方法であって、
前記L-DNNによって、(i)センサによる、前記リアルタイムに動作する機械の環境の観察、および(ii)前記L-DNNの予め判定された重みに基づいて、前記リアルタイムに動作する機械に対する第一作用を予測することと、
前記L-DNNによって、前記観察に基づいて、前記リアルタイムに動作する機械に関する予想と認知との間の不一致を判定することと、
前記不一致に応じて、前記L-DNNによって高速学習モードをトリガすることであって、前記高速学習モードは、前記L-DNNの前記予め判定された重みを変更することなく、前記観察に基づいて修正される予想を生成する、ことと、を含む、方法。
請求項11:
前記リアルタイムに動作する機械がオフラインであると判定することと、
前記リアルタイムに動作する機械がオフラインであるとの判定に応じて、低速学習モードをトリガすることであって、前記低速学習モードは、前記観察に基づいて前記L-DNNの前記予め判定された重みを修正する、ことと、をさらに含む、請求項10に記載の方法。
請求項12:
複数のリアルタイムに動作する機械の間で知識を抽出し、集約し、共有する方法であって、前記複数のリアルタイムに動作する機械の中の各リアルタイムに動作する機械は、重み行列のそれぞれのコピーと共にニューラルネットワークを実装し、
前記複数のリアルタイムに動作する機械の中の第一のリアルタイムに動作する機械の高速学習サブシステムで、少なくとも一つの新しい物体を学習することと、
通信チャネルを介して、前記第一のリアルタイムに動作する機械からサーバへ、前記少なくとも一つの新しい物体の表現を伝送することと、
前記中央サーバにて、前記第一のリアルタイムに動作する機械からの前記少なくとも一つの新しい物体の前記表現に少なくとも一部基づいて、更新された重み行列を形成することと、
前記サーバから、前記複数のリアルタイムに動作する機械の中の少なくとも一つの第二のリアルタイムに動作する機械へ、前記更新された重み行列のコピーを伝送することと、を含む、方法。
請求項13:
前記新しい物体を学習することは、
前記第一のリアルタイムに動作する機械の前記高速学習サブシステムへ動作可能に連結する画像センサで、前記少なくとも一つの新しい物体の画像を取得することと、
前記第一のリアルタイムに動作する機械の前記高速学習サブシステムで、前記少なくとも一つの新しい物体の前記画像を処理することと、を含む、請求項12に記載の方法。
請求項14:
前記ニューラルネットワークは、適応共鳴理論(ART)ニューラルネットワークを含み、
前記ARTニューラルネットワークで、前記少なくとも一つの新しい物体の前記表現を生成することをさらに含む、請求項12に記載の方法。
請求項15:
前記少なくとも一つの新しい物体の前記表現は、重みベクトルを含み、
前記少なくとも一つの新しい物体の前記表現のメモリフットプリントを減少させるように、前記第一のリアルタイムに動作する機械によって使用される前記重み行列の前記コピーと、前記重みベクトルを集約することをさらに含む、請求項14に記載の方法。
請求項16:
前記新しい物体の前記表現を、少なくとも一つの予め知っている物体の表現と集約することをさらに含む、請求項12に記載の方法。
請求項17:
前記少なくとも一つの新しい物体の前記表現を伝送することは、
前記少なくとも一つの新しい物体の前記表現を、前記複数のリアルタイムに動作する機械の中の第二のリアルタイムに動作する機械によって、前記サーバへ伝送することを含む、請求項12に記載の方法。
請求項18:
前記更新された重み行列を形成することは、
前記少なくとも一つの新しい物体の前記表現を、前記複数のリアルタイムに動作する機械の中の、少なくとも一つの他のリアルタイムに動作する機械からの、少なくとも一つの他の新しい物体の表現と混合することを含む、請求項12に記載の方法。
請求項19:
複数のカテゴリの中で物体を認識するようにトレーニングされたニューラルネットワークで、物体を分類する方法であって、
前記ニューラルネットワークに物体を提示することと、
前記ニューラルネットワークによって、複数の信頼水準を判定することであって、前記複数の信頼水準の中の各信頼水準は、前記物体が前記複数のカテゴリの中の対応するカテゴリに該当する可能性を表す、ことと、
前記複数の信頼水準と閾値との比較を行うことと、
前記比較に基づいて、前記物体が前記複数のカテゴリのいずれにも該当しないと判定することと、を含む、方法。
請求項20:
前記比較を行うことは、
前記複数の信頼水準の中の信頼水準には、前記閾値を超えるものがないと判定することを含む、請求項19に記載の方法。
請求項21:
前記閾値を、前記複数の信頼水準の平均よりも大きく設定することをさらに含む、請求項19に記載の方法。
Claims (21)
- 環境の中の物体を分析する方法であって、
センサによって、前記環境の中の前記物体を表すデータストリームを収集することと、
前記センサへ動作可能に連結するプロセッサ上で動くニューラルネットワークによって
、前記データストリームから畳み込み出力を抽出することであって、前記畳み込み出力は
、前記物体の特徴を表す、ことと、
前記ニューラルネットワークへ動作可能に連結する分類器によって、前記畳み込み出力
に基づいて前記物体を分類することと、を含む、方法。 - 前記センサは画像センサであり、前記データストリームは画像を含む、請求項1に記載
の方法。 - 前記特徴のセットを抽出することは、
前記第一画像の複数のセグメント化サブエリアを生成することと、
前記ニューラルネットワークによって、前記複数のセグメント化サブエリアの各々をコ
ード化することと、を含む、請求項2に記載の方法。 - 前記特徴セットを抽出することは、
ユーザが、前記データストリームの中で関心のある部分を選択することが可能になるこ
とと、
前記ユーザが、前記関心のある部分を複数のセグメントに分割することが可能になるこ
とと、
前記ニューラルネットワークによって、前記複数のセグメントの各々をコード化するこ
とと、を含む、請求項1に記載の方法。 - 前記センサは、ライダー、レーダー、または音響センサのうちの少なくとも一つであり
、前記データストリームは、ライダーデータ、レーダーデータ、または音響データのうち
の対応する一つを含む、請求項1に記載の方法。 - 環境のデータストリームを収集するセンサであって、前記データストリームは、前記環
境の中の物体を表す、センサと、
前記画像センサへ動作可能に連結する少なくとも一つのプロセッサであって、(i)前
記物体の前記特徴を表す畳み込み出力を、前記データストリームから抽出するように、ニ
ューラルネットワークを、および(ii)前記畳み込み出力に基づいて前記物体を分類す
る分類器を実行する、少なくとも一つのプロセッサと、を備える、装置。 - 前記センサは、画像センサ、ライダー、レーダー、または音響センサのうちの少なくと
も一つを備える、請求項6に記載の装置。 - 前記ニューラルネットワークは、ディープニューラルネットワーク(DNN)を含む、
請求項6に記載の装置。 - 前記ニューラルネットワークは、適応共鳴理論(ART)ネットワークを含む、請求項
6に記載の装置。 - リアルタイムに動作する機械に、生涯学習ディープニューラルネットワーク(L-DN
N)を実装する方法であって、
前記L-DNNによって、(i)センサによる、前記リアルタイムに動作する機械の環
境の観察、および(ii)前記L-DNNの予め判定された重みに基づいて、前記リアル
タイムに動作する機械に対する第一作用を予測することと、
前記L-DNNによって、前記観察に基づいて、前記リアルタイムに動作する機械に関
する予想と認知との間の不一致を判定することと、
前記不一致に応じて、前記L-DNNによって高速学習モードをトリガすることであっ
て、前記高速学習モードは、前記L-DNNの前記予め判定された重みを変更することな
く、前記観察に基づいて修正される予想を生成する、ことと、を含む、方法。 - 前記リアルタイムに動作する機械がオフラインであると判定することと、
前記リアルタイムに動作する機械がオフラインであるとの判定に応じて、低速学習モー
ドをトリガすることであって、前記低速学習モードは、前記観察に基づいて前記L-DN
Nの前記予め判定された重みを修正する、ことと、をさらに含む、請求項10に記載の方
法。 - 複数のリアルタイムに動作する機械の間で知識を抽出し、集約し、共有する方法であっ
て、前記複数のリアルタイムに動作する機械の中の各リアルタイムに動作する機械は、重
み行列のそれぞれのコピーと共にニューラルネットワークを実装し、
前記複数のリアルタイムに動作する機械の中の第一のリアルタイムに動作する機械の高
速学習サブシステムで、少なくとも一つの新しい物体を学習することと、
通信チャネルを介して、前記第一のリアルタイムに動作する機械からサーバへ、前記少
なくとも一つの新しい物体の表現を伝送することと、
前記中央サーバにて、前記第一のリアルタイムに動作する機械からの前記少なくとも一
つの新しい物体の前記表現に少なくとも一部基づいて、更新された重み行列を形成するこ
とと、
前記サーバから、前記複数のリアルタイムに動作する機械の中の少なくとも一つの第二
のリアルタイムに動作する機械へ、前記更新された重み行列のコピーを伝送することと、
を含む、方法。 - 前記新しい物体を学習することは、
前記第一のリアルタイムに動作する機械の前記高速学習サブシステムへ動作可能に連結
する画像センサで、前記少なくとも一つの新しい物体の画像を取得することと、
前記第一のリアルタイムに動作する機械の前記高速学習サブシステムで、前記少なくと
も一つの新しい物体の前記画像を処理することと、を含む、請求項12に記載の方法。 - 前記ニューラルネットワークは、適応共鳴理論(ART)ニューラルネットワークを含
み、
前記ARTニューラルネットワークで、前記少なくとも一つの新しい物体の前記表現を
生成することをさらに含む、請求項12に記載の方法。 - 前記少なくとも一つの新しい物体の前記表現は、重みベクトルを含み、
前記少なくとも一つの新しい物体の前記表現のメモリフットプリントを減少させるよう
に、前記第一のリアルタイムに動作する機械によって使用される前記重み行列の前記コピ
ーと、前記重みベクトルを集約することをさらに含む、請求項14に記載の方法。 - 前記新しい物体の前記表現を、少なくとも一つの予め知っている物体の表現と集約する
ことをさらに含む、請求項12に記載の方法。 - 前記少なくとも一つの新しい物体の前記表現を伝送することは、
前記少なくとも一つの新しい物体の前記表現を、前記複数のリアルタイムに動作する機
械の中の第二のリアルタイムに動作する機械によって、前記サーバへ伝送することを含む
、請求項12に記載の方法。 - 前記更新された重み行列を形成することは、
前記少なくとも一つの新しい物体の前記表現を、前記複数のリアルタイムに動作する機
械の中の、少なくとも一つの他のリアルタイムに動作する機械からの、少なくとも一つの
他の新しい物体の表現と混合することを含む、請求項12に記載の方法。 - 複数のカテゴリの中で物体を認識するようにトレーニングされたニューラルネットワー
クで、物体を分類する方法であって、
前記ニューラルネットワークに物体を提示することと、
前記ニューラルネットワークによって、複数の信頼水準を判定することであって、前記
複数の信頼水準の中の各信頼水準は、前記物体が前記複数のカテゴリの中の対応するカテ
ゴリに該当する可能性を表す、ことと、
前記複数の信頼水準と閾値との比較を行うことと、
前記比較に基づいて、前記物体が前記複数のカテゴリのいずれにも該当しないと判定す
ることと、を含む、方法。 - 前記比較を行うことは、
前記複数の信頼水準の中の信頼水準には、前記閾値を超えるものがないと判定すること
を含む、請求項19に記載の方法。 - 前記閾値を、前記複数の信頼水準の平均よりも大きく設定することをさらに含む、請求
項19に記載の方法。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762503639P | 2017-05-09 | 2017-05-09 | |
US62/503,639 | 2017-05-09 | ||
US201762612529P | 2017-12-31 | 2017-12-31 | |
US62/612,529 | 2017-12-31 | ||
JP2019561829A JP7317717B2 (ja) | 2017-05-09 | 2018-05-09 | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 |
PCT/US2018/031833 WO2018208939A1 (en) | 2017-05-09 | 2018-05-09 | Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561829A Division JP7317717B2 (ja) | 2017-05-09 | 2018-05-09 | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023156308A true JP2023156308A (ja) | 2023-10-24 |
Family
ID=64096214
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561829A Active JP7317717B2 (ja) | 2017-05-09 | 2018-05-09 | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 |
JP2023117276A Pending JP2023156308A (ja) | 2017-05-09 | 2023-07-19 | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561829A Active JP7317717B2 (ja) | 2017-05-09 | 2018-05-09 | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US20180330238A1 (ja) |
EP (1) | EP3622438A4 (ja) |
JP (2) | JP7317717B2 (ja) |
KR (1) | KR20200028330A (ja) |
CN (1) | CN110914836A (ja) |
CA (1) | CA3061767A1 (ja) |
WO (1) | WO2018208939A1 (ja) |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11468286B2 (en) * | 2017-05-30 | 2022-10-11 | Leica Microsystems Cms Gmbh | Prediction guided sequential data learning method |
US11138901B1 (en) | 2017-06-28 | 2021-10-05 | Amazon Technologies, Inc. | Item recognition and analysis |
US10540390B1 (en) * | 2017-08-07 | 2020-01-21 | Amazon Technologies, Inc. | Image-based item identification |
CN107463907B (zh) * | 2017-08-08 | 2021-06-25 | 东软集团股份有限公司 | 车辆碰撞检测方法、装置、电子设备及车辆 |
EP3625767B1 (en) * | 2017-09-27 | 2021-03-31 | Google LLC | End to end network model for high resolution image segmentation |
EP3477591B1 (en) * | 2017-10-24 | 2020-05-27 | AGFA Healthcare | Avoiding catastrophic interference while training an artificial neural network on an additional task |
JP6695947B2 (ja) * | 2018-09-21 | 2020-05-20 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像システム、画像処理方法及びプログラム |
WO2020082080A1 (en) * | 2018-10-19 | 2020-04-23 | Northwestern University | Design and optimization of edge computing distributed neural processor for wearable devices |
US11092968B2 (en) | 2018-11-15 | 2021-08-17 | Lingdong Technology (Beijing) Co. Ltd | System and method for real-time supervised machine learning in on-site environment |
US11122099B2 (en) * | 2018-11-30 | 2021-09-14 | Motorola Solutions, Inc. | Device, system and method for providing audio summarization data from video |
US11133059B2 (en) * | 2018-12-06 | 2021-09-28 | Western Digital Technologies, Inc. | Non-volatile memory die with deep learning neural network |
KR20210098445A (ko) | 2018-12-07 | 2021-08-10 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치, 정보 처리 방법, 프로그램, 이동체 제어 장치, 및 이동체 |
CN111310519B (zh) * | 2018-12-11 | 2024-01-05 | 成都智叟智能科技有限公司 | 基于机器视觉与数据采样的货品深度学习训练方法 |
TWI696961B (zh) * | 2018-12-12 | 2020-06-21 | 財團法人工業技術研究院 | 深度神經網路硬體加速器與其操作方法 |
US10891514B2 (en) * | 2018-12-17 | 2021-01-12 | Microsoft Technology Licensing, Llc | Image classification pipeline |
US11138504B2 (en) * | 2018-12-28 | 2021-10-05 | Datalogic Ip Tech S.R.L. | Deployment of deep neural networks (DNN) in embedded devices by means of peer-to-peer routing between computational points |
US10467500B1 (en) * | 2018-12-31 | 2019-11-05 | Didi Research America, Llc | Method and system for semantic segmentation involving multi-task convolutional neural network |
US10509987B1 (en) * | 2019-01-22 | 2019-12-17 | StradVision, Inc. | Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same |
CN109816097B (zh) * | 2019-01-23 | 2022-12-09 | 东北大学 | 一种基于YOLO的Compress-YOLO模型压缩方法 |
EP3696406A1 (en) * | 2019-02-13 | 2020-08-19 | Siemens Gamesa Renewable Energy A/S | A method for computer-implemented analysis of a wind farm comprising a number of wind turbines |
US11507677B2 (en) | 2019-02-15 | 2022-11-22 | Microsoft Technology Licensing, Llc | Image classification modeling while maintaining data privacy compliance |
CN113508604B (zh) | 2019-02-28 | 2023-10-31 | 斯塔特斯公司 | 从广播视频生成可跟踪视频帧的系统及方法 |
US10832407B2 (en) * | 2019-03-06 | 2020-11-10 | International Business Machines Corporation | Training a neural network adapter |
US10916306B2 (en) | 2019-03-07 | 2021-02-09 | Western Digital Technologies, Inc. | Burst mode operation conditioning for a memory device |
US10776695B1 (en) | 2019-03-08 | 2020-09-15 | Ai Concepts, Llc | Intelligent recognition and alert methods and systems |
US11699078B2 (en) | 2019-03-08 | 2023-07-11 | Ai Concepts, Llc | Intelligent recognition and alert methods and systems |
US10530561B1 (en) * | 2019-03-20 | 2020-01-07 | Xilinx, Inc. | Adaptive method to reduce training time of receivers |
EP3959645A1 (en) * | 2019-04-24 | 2022-03-02 | Sony Group Corporation | Sensing apparatus and control system for automotive |
CN110633610B (zh) * | 2019-05-17 | 2022-03-25 | 西南交通大学 | 一种基于yolo的学员状态检测方法 |
US20220245429A1 (en) * | 2019-05-21 | 2022-08-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Recursive coupling of artificial learning units |
US11314517B2 (en) | 2019-06-14 | 2022-04-26 | Here Global B.V. | Method and apparatus for updating pipeline operations for data processing |
US11520521B2 (en) | 2019-06-20 | 2022-12-06 | Western Digital Technologies, Inc. | Storage controller having data augmentation components for use with non-volatile memory die |
US11501109B2 (en) | 2019-06-20 | 2022-11-15 | Western Digital Technologies, Inc. | Non-volatile memory die with on-chip data augmentation components for use with machine learning |
CN110417786B (zh) * | 2019-07-31 | 2022-01-11 | 广东工业大学 | 一种基于深度特征的p2p流量细粒度识别方法 |
US11036488B2 (en) * | 2019-08-12 | 2021-06-15 | International Business Machines Corporation | System and method for optimal hierarchical upgrade time prediction |
JP7158355B2 (ja) * | 2019-08-30 | 2022-10-21 | 株式会社豊田中央研究所 | ノイズ除去装置および距離測定装置 |
US11012526B1 (en) | 2019-09-19 | 2021-05-18 | Allstate Insurance Company | Inspection and assessment based on mobile edge-computing |
EP3809316A1 (de) * | 2019-09-24 | 2021-04-21 | Elektrobit Automotive GmbH | Vorhersage eines strassenverlaufs auf basis von radardaten |
CN110581898B (zh) * | 2019-10-09 | 2022-04-08 | 成都康胜思科技有限公司 | 基于5g和边缘计算的物联网数据终端系统 |
US11769180B2 (en) * | 2019-10-15 | 2023-09-26 | Orchard Technologies, Inc. | Machine learning systems and methods for determining home value |
WO2021085785A1 (en) | 2019-10-29 | 2021-05-06 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
GB2588614B (en) * | 2019-10-29 | 2023-01-11 | Samsung Electronics Co Ltd | Method and system for customising a machine learning model |
US11687805B2 (en) | 2019-10-31 | 2023-06-27 | Shoreline Iot, Inc. | Systems and methods for self-learning artificial intelligence of things (AIOT) devices and services |
US11584377B2 (en) * | 2019-11-21 | 2023-02-21 | Gm Cruise Holdings Llc | Lidar based detection of road surface features |
CN111325708B (zh) * | 2019-11-22 | 2023-06-30 | 济南信通达电气科技有限公司 | 一种输电线路检测方法和服务器 |
CN113033792B (zh) * | 2019-12-24 | 2024-11-01 | 财团法人工业技术研究院 | 神经网络运算装置及方法 |
US20210256845A1 (en) * | 2020-02-17 | 2021-08-19 | International Business Machines Corporation | Drone formation for traffic coordination and control |
US11675879B2 (en) * | 2020-02-20 | 2023-06-13 | K2Ai, LLC | Apparatus and method for operating a detection and response system |
US11176677B2 (en) * | 2020-03-16 | 2021-11-16 | Memorial Sloan Kettering Cancer Center | Deep interactive learning for image segmentation models |
CN111582016A (zh) * | 2020-03-18 | 2020-08-25 | 宁波送变电建设有限公司永耀科技分公司 | 基于云边协同深度学习的智能免维护电网监控方法及系统 |
EP4128028A1 (en) * | 2020-03-31 | 2023-02-08 | Teledyne FLIR Detection, Inc. | User-in-the-loop object detection and classification systems and methods |
CN111523597B (zh) * | 2020-04-23 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111488948B (zh) * | 2020-04-29 | 2021-07-20 | 中国科学院重庆绿色智能技术研究院 | 一种抖动环境下稀疏样本的标记方法 |
CN111553481A (zh) * | 2020-04-30 | 2020-08-18 | 深圳市迪米欧科技有限公司 | 一种基于rnn的量子计算方法和装置 |
CN113671458B (zh) * | 2020-05-13 | 2024-10-11 | 华为技术有限公司 | 一种目标物体识别方法及装置 |
JP7464118B2 (ja) * | 2020-05-26 | 2024-04-09 | 日本電信電話株式会社 | 分散深層学習システム |
WO2021245896A1 (ja) * | 2020-06-05 | 2021-12-09 | 日本電信電話株式会社 | 分割認識方法、分割認識装置及びプログラム |
US11507835B2 (en) | 2020-06-08 | 2022-11-22 | Western Digital Technologies, Inc. | Neural network data updates using in-place bit-addressable writes within storage class memory |
US11741698B2 (en) | 2020-06-10 | 2023-08-29 | Toyota Research Institute, Inc. | Confidence-estimated domain adaptation for training machine learning models |
US20220012588A1 (en) * | 2020-07-09 | 2022-01-13 | Samsung Electronics Co., Ltd. | Method and device with reservoir management and neural network online learning |
CN113282933B (zh) * | 2020-07-17 | 2022-03-01 | 中兴通讯股份有限公司 | 联邦学习方法、装置和系统、电子设备、存储介质 |
TWI820347B (zh) * | 2020-09-04 | 2023-11-01 | 仁寶電腦工業股份有限公司 | 行為識別方法、行為識別系統及手寫辨識系統 |
WO2022060266A1 (en) * | 2020-09-18 | 2022-03-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Network node and method for handling inspection of structure |
CN112116576B (zh) * | 2020-09-20 | 2023-04-18 | 中国人民解放军空军工程大学 | 基于偏振结构光成像和改进的缺陷检测方法 |
US20230375292A1 (en) * | 2020-10-01 | 2023-11-23 | The Regents Of The University Of California | Systems and Methods for Smart Boiling Control |
CN112257864B (zh) * | 2020-10-22 | 2022-08-16 | 福州大学 | 一种用于解决灾难性遗忘问题的终生学习方法 |
KR102576747B1 (ko) * | 2020-11-06 | 2023-09-11 | 한국전자통신연구원 | 심층신경망을 기반으로 하는 객체 검출기의 지역 최적화를 위한 시스템 및 이를 위한 로컬 데이터베이스 생성 방법 |
KR102612422B1 (ko) * | 2020-11-12 | 2023-12-12 | 한국전자통신연구원 | 네트워크를 이용한 고정형 폐쇄회로 영상 엣지 단말의 적응형 객체 인식 장치 및 방법 |
CN112418404A (zh) * | 2020-12-01 | 2021-02-26 | 策拉人工智能科技(云南)有限公司 | 一种人工智能会计神经网络深度学习训练方法 |
US11461591B2 (en) | 2020-12-16 | 2022-10-04 | Microsoft Technology Licensing, Llc | Allocating computing resources during continuous retraining |
US11792501B2 (en) | 2020-12-17 | 2023-10-17 | Motorola Solutions, Inc. | Device, method and system for installing video analytics parameters at a video analytics engine |
CN112667793B (zh) * | 2020-12-31 | 2023-08-22 | 徐波 | 一种基于dnn的人机交互方法、装置、系统、电子设备和存储介质 |
CN113095141A (zh) * | 2021-03-15 | 2021-07-09 | 南通大学 | 一种基于人工智能的无人机视觉学习系统 |
US11847847B2 (en) * | 2021-03-26 | 2023-12-19 | Analog Devices International Unlimited Company | Learning system for convolutional neural networks to improve accuracy of object detection in new environments |
CN112862083B (zh) * | 2021-04-06 | 2024-04-09 | 南京大学 | 一种边缘环境下的深度神经网络推断方法及装置 |
CN113297914B (zh) * | 2021-04-26 | 2023-04-18 | 云南电网有限责任公司信息中心 | 一种配网现场作业验电动作识别方法 |
CN113139612A (zh) * | 2021-05-07 | 2021-07-20 | 上海商汤临港智能科技有限公司 | 图像分类方法、分类网络的训练方法和相关产品 |
CN113595993B (zh) * | 2021-07-12 | 2022-06-14 | 广东工业大学 | 边缘计算下模型结构优化的车载感知设备联合学习方法 |
CN113591668B (zh) * | 2021-07-26 | 2023-11-21 | 南京大学 | 一种使用深度学习和空间分析的广域未知大坝自动探测方法 |
US12131065B2 (en) | 2021-08-19 | 2024-10-29 | Micron Technology, Inc. | Memory device overhead reduction using artificial intelligence |
US11989421B2 (en) | 2021-08-19 | 2024-05-21 | Micron Technology, Inc. | Adjustable data protection scheme using artificial intelligence |
US11698858B2 (en) | 2021-08-19 | 2023-07-11 | Micron Technology, Inc. | Prediction based garbage collection |
CN114061589B (zh) * | 2021-11-16 | 2023-05-26 | 中山大学 | 端边协同的多无人机自主导航方法 |
CN114564882A (zh) * | 2022-01-29 | 2022-05-31 | 内蒙古工业大学 | 基于离散事件的边缘深度学习模拟器的构建与应用 |
US20240104373A1 (en) * | 2022-09-26 | 2024-03-28 | NavInfo Europe B.V. | Artificial cognitive architecture incorporating cognitive computation, inductive bias and multi-memory systems |
NL2033808B1 (en) * | 2022-09-26 | 2024-04-03 | Navinfo Europe B V | Artificial cognitive architecture incorporating cognitive computation, inductive bias and multi-memory systems |
CN115643115B (zh) * | 2022-12-23 | 2023-03-10 | 武汉大学 | 基于大数据的工控网络安全态势预测方法及系统 |
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
CN117095283A (zh) * | 2023-06-07 | 2023-11-21 | 陕西工业职业技术学院 | 一种堆叠目标识别方法和装置 |
CN117152668B (zh) * | 2023-10-30 | 2024-02-06 | 成都方顷科技有限公司 | 一种基于物联网的智慧后勤实现方法、装置及设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9232211B2 (en) * | 2009-07-31 | 2016-01-05 | The University Of Connecticut | System and methods for three-dimensional imaging of objects in a scattering medium |
US8270733B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8879855B2 (en) * | 2012-08-17 | 2014-11-04 | Nec Laboratories America, Inc. | Image segmentation for large-scale fine-grained recognition |
US20150324686A1 (en) * | 2014-05-12 | 2015-11-12 | Qualcomm Incorporated | Distributed model learning |
US9665802B2 (en) * | 2014-11-13 | 2017-05-30 | Nec Corporation | Object-centric fine-grained image classification |
US9418319B2 (en) * | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
US20170039469A1 (en) | 2015-08-04 | 2017-02-09 | Qualcomm Incorporated | Detection of unknown classes and initialization of classifiers for unknown classes |
US9589210B1 (en) * | 2015-08-26 | 2017-03-07 | Digitalglobe, Inc. | Broad area geospatial object detection using autogenerated deep learning models |
CN106250812B (zh) * | 2016-07-15 | 2019-08-20 | 汤一平 | 一种基于快速r-cnn深度神经网络的车型识别方法 |
CN106250931A (zh) * | 2016-08-03 | 2016-12-21 | 武汉大学 | 一种基于随机卷积神经网络的高分辨率图像场景分类方法 |
-
2018
- 2018-05-09 KR KR1020197035963A patent/KR20200028330A/ko unknown
- 2018-05-09 JP JP2019561829A patent/JP7317717B2/ja active Active
- 2018-05-09 US US15/975,280 patent/US20180330238A1/en active Granted
- 2018-05-09 CN CN201880043894.9A patent/CN110914836A/zh active Pending
- 2018-05-09 EP EP18799281.3A patent/EP3622438A4/en active Pending
- 2018-05-09 CA CA3061767A patent/CA3061767A1/en active Pending
- 2018-05-09 WO PCT/US2018/031833 patent/WO2018208939A1/en unknown
-
2023
- 2023-07-19 JP JP2023117276A patent/JP2023156308A/ja active Pending
-
2024
- 2024-01-31 US US18/428,455 patent/US20240289625A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3622438A4 (en) | 2021-03-10 |
US20180330238A1 (en) | 2018-11-15 |
KR20200028330A (ko) | 2020-03-16 |
JP2020520007A (ja) | 2020-07-02 |
US20240289625A1 (en) | 2024-08-29 |
EP3622438A1 (en) | 2020-03-18 |
WO2018208939A1 (en) | 2018-11-15 |
JP7317717B2 (ja) | 2023-07-31 |
CN110914836A (zh) | 2020-03-24 |
CA3061767A1 (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023156308A (ja) | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 | |
Ball et al. | Comprehensive survey of deep learning in remote sensing: theories, tools, and challenges for the community | |
US11875268B2 (en) | Object recognition with reduced neural network weight precision | |
Kishore et al. | Indian classical dance action identification and classification with convolutional neural networks | |
Kaymak et al. | A brief survey and an application of semantic image segmentation for autonomous driving | |
Wang et al. | Deep learning algorithms with applications to video analytics for a smart city: A survey | |
Sharma et al. | Recursive context propagation network for semantic scene labeling | |
US20200242736A1 (en) | Method for few-shot unsupervised image-to-image translation | |
EP3120300A2 (en) | Methods and apparatus for autonomous robotic control | |
Sarabu et al. | Human action recognition in videos using convolution long short-term memory network with spatio-temporal networks | |
CN112534445B (zh) | 具有数量被减少的参数的神经网络 | |
Pavel et al. | Object class segmentation of RGB-D video using recurrent convolutional neural networks | |
Putra et al. | A deep neural network model for multi-view human activity recognition | |
Behera et al. | Superpixel-based multiscale CNN approach toward multiclass object segmentation from UAV-captured aerial images | |
Chen-McCaig et al. | Convolutional neural networks for texture recognition using transfer learning | |
Kumar | Machine intelligence prospective for large scale video based visual activities analysis | |
Kalsum et al. | A Novel Lightweight Deep Convolutional Neural Network Model for Human Emotions Recognition in Diverse Environments | |
Vu et al. | Detection of unknown anomalies in streaming videos with generative energy-based boltzmann models | |
Kampffmeyer | Advancing Segmentation and Unsupervised Learning Within the Field of Deep Learning | |
Thakur et al. | Machine Learning and Deep Learning Techniques | |
Nikolenko | Deep Neural Networks for Computer Vision | |
Wu et al. | Weighted classification of machine learning to recognize human activities | |
Tombe et al. | Remote Sensing Scene Classification Based on Effective Feature Learning by Deep Residual Networks | |
Treliński et al. | Decision combination in classifier committee built on deep embedding features | |
Dinu | 3D Deep object recognition for mobile robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240906 |