JP7393512B2 - ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 - Google Patents
ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 Download PDFInfo
- Publication number
- JP7393512B2 JP7393512B2 JP2022202375A JP2022202375A JP7393512B2 JP 7393512 B2 JP7393512 B2 JP 7393512B2 JP 2022202375 A JP2022202375 A JP 2022202375A JP 2022202375 A JP2022202375 A JP 2022202375A JP 7393512 B2 JP7393512 B2 JP 7393512B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- classification
- learning
- weights
- cnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 69
- 230000013016 learning Effects 0.000 title claims description 65
- 238000000034 method Methods 0.000 title claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 238000012800 visualization Methods 0.000 claims description 4
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
[0001]本発明は、ニューラルネットワークの分散学習のためのネットワークシステム、および方法に関し、ネットワークシステムの構造として、順方向ノードがラベル付き演算(observations)を行うことができ、合計された学習済みの重みを順方向ノード間に再分配するバックエンドエンジンの学習演算の連携および負荷を低減する点において、一つの物理的な位置での演算結果(observations)が、別のネットワーク・ノードによって行われた推論および分類に対して影響を与えて、支援できるようにすることである。
[0002]人工知能(AI)は、コンピュータサイエンスの一つであり、ソフトウェア・アプリケーションがそれ自体の置かれた環境を学習し、学習された環境よりある一定の結論を得ることを可能とするアルゴリズムが採用される。機械学習は、AIの一つであり、ソフトウェア・アプリケーション自体が大量の未処理の入力データを反復的に分析し、これらのデータのパターンを抽出し、そのソフトウェア・アプリケーションにおいてタスクを実行するための特定のプログラムが組まれていなくてもタスクを実行することを学習できるように、自らの知識を獲得するソフトウェア・アプリケーションを採用する。深層学習は、特定種類の機械学習であり、現実世界の環境を、段々と複雑化していく階層概念として表すことで、より大規模な学習性能を提供する。
設けられている。トラック、車等を含む、何台もの車両20が、車道14、16に沿って異なる速度で移動している。さらに、何人もの歩行者22が、歩道18および横断歩道24の上を歩いている。本明細書では、デジタル画像10は一枚の静止画像または動画ストリーミング画像の一つのフレームであるものとして説明する。
examination network:ARDEN)を提案する。ネットワークは、デジタル画像10内の物体を特定し、画像10におけるピクセルベースの位置を求め、かつ、リアルタイム動画に用いることができるように、例えば、物体検出の確率を常に30ms未満という非常に低遅延で実現する。また、ネットワークは、一つ前の画像フレームでの位置に基づいて、画像10内で動いている物体の相対速度を予測する。
対速度、および動いている物体の方向を特定することが望まれ、また、過去の画像フレームにおけるそれぞれの相対速度および方向に基づいて、動いている複数の物体が後続の画像フレームにおいてどこへ行くのかを予測すること、およびニューラルネットワークの学習により得られたパターンを予測することが望まれる。動いている物体の位置を予測する場合、車両が方向を変えて回転するように、動きが線形的でない物体の位置を予測することが含まれる。
バウンディングボックスと、物体の相対速度および予測される将来の位置の表示とが付与される。この関係付けは、画像10に含まれる物体の位置と相対速度とを示す画像を生成する視覚化エンジン58が備える、画像フレームおよび分類オーバーレイ並びに運動ベクトル物体予測プロセッサ60に与えられる。画像および、プロセッサ52により得られた物体の位置と相対速度とを含む、合わせられたデータは、画像を表示するための表示装置62に送出される。表示装置62は、本明細書における目的に適した表示装置であればどのようなものでもよく、例えば、モニタ、ヘッドアップディスプレイ(Head-up display:HUD)、ゴーグル型、プロジェクタ、スマートフォン、コンピュータなどを用いることができる。
機能および誤差逆伝播機能を有し、CNNおよびRNNのノードの重みの値の調整に用いられ、別の画像に含まれる物体の分類をより精度よく行うようにする。より詳細には、重みに対しては、制御された方法での評価が行われ、学習CNNおよびRNNが物体を正確に分類できるように重みが調整されるところ、重みは静的なデータであり、評価機能により抽出、保存、転送、および精製(refine)されることが可能な性質を有し、学習過程の伝播により再帰的に更新される。分類予測エンジン100は、データのスループットを増やすために並列演算処理を実行する、当業者に動作がよく知られているグラフィックプロセッサユニット(GPU)クラスター102にデータを出力し、また、データを受信する。いったん評価処理が完了して、学習された重みの値で物体の特定および分類について正確性の高い予測が実現できることを分類予測エンジン100が判断すると、重みは、分類予測エンジン100から学習済み重み104として出力される。学習システム92は、学習済み重み104を送信し、画像を受信するために適切なトランシーバー、または、ネットワークルータ106も備えている。
Claims (15)
- ニューラルネットワークの分散学習および複数のノードの重みの分配を行うためのシステムであって、
学習用画像と前記学習用画像に含まれる物体の物体ラベルとを提供するツールスイートと、少なくとも一つの学習ニューラルネットワークにおいて複数のノードの重みを学習するために、前記学習用画像に含まれる前記物体を検出および分類する前記少なくとも一つの学習ニューラルネットワークと、学習済みニューラルネットワークの重みを分配し、かつ、画像を受信するための学習機能トランシーバーと、を具備する学習機能と、
ピクセル化された画像フレームを提供する画像ソースと、前記画像フレームに含まれる物体を特定し、分類し、かつ、前記物体の相対速度を示す少なくとも一つの分類予測ニューラルネットワークと、前記画像フレームを前記学習機能に送信し、かつ、前記学習済みニューラルネットワークの重みを前記学習機能から受信するためのユニットトランシーバーと、を各々が具備する複数の物体検出分類ユニットであって、前記複数の物体検出分類ユニットの各々は、前記学習用画像を用いて学習を行った前記学習機能からの前記学習済みニューラルネットワークの重みに応答的である、複数の物体検出分類ユニットと、を備え、
前記複数の物体検出分類ユニットは、ネットワークを介して、前記学習機能とは分離して設けられ、
前記複数の物体検出分類ユニットの各々は、前記学習機能に前記画像フレームを送信して、前記少なくとも一つの学習ニューラルネットワークに対して、前記少なくとも一つの学習ニューラルネットワークに含まれる前記複数のノードの重みをさらに学習させ、
前記学習済みニューラルネットワークの重みが、前記学習機能トランシーバーによって前記学習機能から前記複数の物体検出分類ユニットの各々に分配される結果、他の複数の物体検出分類ユニットからの画像フレームに含まれる物体を用いて、前記複数の物体検出分類ユニットの各々における前記少なくとも一つの分類予測ニューラルネットワークの複数のノードの重みが前記学習機能において学習され、
前記複数の物体検出分類ユニットの各々が有する前記少なくとも一つの分類予測ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含み、
前記CNNが分類エンジンに設けられ、前記CNNが入力層および出力層を含み、
前記CNNが、前記入力層において前記画像フレームに対して応答的とされ、前記画像フレームに含まれる物体の特定および分類を行い、物体分類データを前記出力層に渡し、
前記画像ソースがさらに前記画像ソースの位置情報を含むメタデータを提供し、前記RNNが予測エンジンに設けられ、
前記予測エンジンでは、前記メタデータのうちから、前記画像フレームにおいて、特定の位置にある前記物体の位置の予測処理に適したメタデータが選択され、
前記RNNが、前記出力層の前記物体分類データと、前記選択されたメタデータとに対して応答的とされ、
前記RNNが、前記画像フレームに含まれる、分類された前記物体の運動と相対速度とを特定して物体運動データを供給し、
前記予測エンジンが、前記CNNからの前記物体分類データと前記RNNからの前記物体運動データとを結合する物体分類-運動ベクトルプロセッサを更に有する
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、前記少なくとも一つの学習ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含む
ことを特徴とするシステム。
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、前記CNNには、確実に全結合層が存在しない
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、前記RNNは、長期短期記憶を含む
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、
前記複数の物体検出分類ユニットの各々は、前記画像フレームと、前記予測エンジンにより結合された前記物体分類データおよび前記物体運動データと、に対して応答的な視覚化エンジンをさらに有し、
前記視覚化エンジンは、結合された前記物体分類データおよび前記物体運動データと、
前記画像フレームとを関係付けて、分類された物体の各々の周囲の境界枠と、前記分類された物体の相対速度および移動方向を示す表示とを含む、関係付けられた画像を供給し、
前記複数の物体検出分類ユニットの各々は、さらに、前記関係付けられた画像を表示させる表示装置を有する
ことを特徴とするシステム。 - 請求項5に記載のシステムにおいて、前記表示装置は、モニタ、ヘッドアップディスプレイ(HUD)装置、ゴーグル、プロジェクタ、スマートフォン、およびコンピュータからなる群より選択される
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、前記少なくとも一つの分類予測ニューラルネットワークは、回転する物体の将来の位置を予測する
ことを特徴とするシステム。 - 請求項1に記載のシステムにおいて、画像ソースは、カメラ、電気光学赤外線センサ、LIDARセンサ、X線装置、磁気共鳴画像(MRI)装置、および合成開口レーダ(SAR)装置からなる群より選択される
ことを特徴とするシステム。 - ニューラルネットワークの分散学習および複数のノードの重みの分配を行うためのシステムであって、
少なくとも一つの学習ニューラルネットワークにおいて複数のノードの重みを学習するために、学習用画像に含まれる物体を検出および分類する前記少なくとも一つの学習ニューラルネットワークを具備する学習機能と、
ピクセル化された画像フレームを提供する画像ソースと、画像フレームに含まれる物体を特定し、分類し、および前記物体の相対速度を示す、少なくとも一つの分類予測ニューラルネットワークと、を各々が具備する複数の物体検出分類ユニットと
を備え、
前記複数の物体検出分類ユニットは、ネットワークを介して、前記学習機能とは分離して設けられ、
前記学習機能は、前記学習用画像により学習した学習済み重みを前記複数の物体検出分類ユニットに送信し、
前記複数の物体検出分類ユニットの各々は、前記学習機能からの学習済みニューラルネットワークの重みに応答的であり、
前記複数の物体検出分類ユニットの各々は、前記学習機能に対して前記画像フレームを送信して、前記少なくとも一つの学習ニューラルネットワークに対して、前記少なくとも一つの学習ニューラルネットワークに含まれる前記複数のノードの重みをさらに学習させ、
前記学習済みニューラルネットワークの重みが、前記学習機能から前記複数の物体検出分類ユニットの各々に分配される結果、前記学習機能において、他の複数の物体検出分類ユニットからの画像の物体を用いて、前記複数の物体検出分類ユニットの各々が有する前記少なくとも一つの分類予測ニューラルネットワークの複数のノードの重みが学習され、
前記複数の物体検出分類ユニットの各々が有する前記少なくとも一つの分類予測ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含み、
前記CNNが分類エンジンに設けられ、前記CNNが入力層および出力層を含み、
前記CNNが、前記入力層において前記画像フレームに対して応答的とされ、前記画像フレームに含まれる物体の特定および分類を行い、物体分類データを前記出力層に渡し、
前記画像ソースがさらに前記画像ソースの位置情報を含むメタデータを提供し、前記RNNが予測エンジンに設けられ、
前記予測エンジンでは、前記メタデータのうちから、前記画像フレームにおいて、特定の位置にある前記物体の位置の予測処理に適したメタデータが選択され、
前記RNNが、前記出力層の前記物体分類データと、前記選択されたメタデータとに対して応答的とされ、
前記RNNが、前記画像フレームに含まれる、分類された前記物体の運動と相対速度とを特定して物体運動データを供給し、
前記予測エンジンが、前記CNNからの前記物体分類データと前記RNNからの前記物体運動データとを結合する物体分類-運動ベクトルプロセッサを更に有する
ことを特徴とするシステム。 - 請求項9に記載のシステムにおいて、前記少なくとも一つの学習ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含む
ことを特徴とするシステム。 - 請求項9に記載のシステムにおいて、前記CNNには、確実に全結合層が存在しない
ことを特徴とするシステム。 - 請求項9に記載のシステムにおいて、前記RNNは、長期短期記憶を含む
ことを特徴とするシステム。 - ニューラルネットワークの分散学習および複数のノードの重みの分配を行うための方法であって、
学習機能が具備するツールスイートが、学習用画像を与えるステップと、
前記学習機能が、前記学習用画像を用いて、学習ニューラルネットワークの複数のノードの重みを学習するステップと、
学習機能トランシーバーが、学習済み重みを、前記学習機能とは分離してネットワーク上の複数の位置に設けられている複数の物体検出分類ユニットに送信するステップと、
前記複数の物体検出分類ユニットの各々が各位置にある少なくとも一つの分類予測ニューラルネットワークを用いて、前記複数の位置での、画像ソースにより提供されるピクセル化された画像フレームに含まれる物体を特定し、分類し、および前記物体の相対速度を示すステップであって、前記学習機能からの前記学習済み重みは、各位置にある前記少なくとも一つの分類予測ニューラルネットワークの複数のノードの重みを学習するために用いられるものである、ステップと、
前記学習ニューラルネットワークの前記複数のノードの重みをさらに学習させるために、前記複数の物体検出分類ユニットの各々が、各位置からの前記画像フレームを、前記学習機能の前記学習ニューラルネットワークに送信するステップと、
前記学習済み重みが、前記学習機能から前記複数の位置における前記複数の物体検出分類ユニットの各々にさらに分配される結果、他の位置における他の複数の物体検出分類ユニットからの画像フレームに含まれる物体を用いて、前記複数の物体検出分類ユニットの各位置における前記少なくとも一つの分類予測ニューラルネットワークの複数のノードの重みが前記学習機能により学習され、
前記複数の物体検出分類ユニットの各々が有する前記少なくとも一つの分類予測ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含み、
前記CNNが分類エンジンに設けられ、前記CNNが入力層および出力層を含み、
前記CNNが、前記入力層において前記画像フレームに対して応答的とされ、前記画像フレームに含まれる物体の特定および分類を行い、物体分類データを前記出力層に渡し、
前記画像ソースがさらに前記画像ソースの位置情報を含むメタデータを提供し、前記RNNが予測エンジンに設けられ、
前記予測エンジンでは、前記メタデータのうちから、前記画像フレームにおいて、特定の位置にある前記物体の位置の予測処理に適したメタデータが選択され、
前記RNNが、前記出力層の前記物体分類データと、前記選択されたメタデータとに対して応答的とされ、
前記RNNが、前記画像フレームに含まれる、分類された前記物体の運動と相対速度とを特定して物体運動データを供給し、
前記予測エンジンが、前記CNNからの前記物体分類データと前記RNNからの前記物体運動データとを結合する物体分類-運動ベクトルプロセッサを更に有する
ことを特徴とする方法。 - 請求項13に記載の方法において、前記学習ニューラルネットワークは、多層順伝播型畳み込みニューラルネットワーク(CNN)と、再帰型ニューラルネットワーク(RNN)とを含む
ことを特徴とする方法。 - 請求項13に記載の方法において、前記CNNには、確実に全結合層が存在しない
ことを特徴とする方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/683,534 | 2017-08-22 | ||
US15/683,534 US10217028B1 (en) | 2017-08-22 | 2017-08-22 | System and method for distributive training and weight distribution in a neural network |
PCT/US2018/043134 WO2019040214A1 (en) | 2017-08-22 | 2018-07-20 | SYSTEM AND METHOD FOR DISTRIBUTIVE LEARNING AND WEIGHT DISTRIBUTION IN A NEURONAL NETWORK |
JP2020511523A JP2020532008A (ja) | 2017-08-22 | 2018-07-20 | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511523A Division JP2020532008A (ja) | 2017-08-22 | 2018-07-20 | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023036761A JP2023036761A (ja) | 2023-03-14 |
JP7393512B2 true JP7393512B2 (ja) | 2023-12-06 |
Family
ID=63104172
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511523A Pending JP2020532008A (ja) | 2017-08-22 | 2018-07-20 | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 |
JP2022202375A Active JP7393512B2 (ja) | 2017-08-22 | 2022-12-19 | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511523A Pending JP2020532008A (ja) | 2017-08-22 | 2018-07-20 | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10217028B1 (ja) |
EP (1) | EP3673417B1 (ja) |
JP (2) | JP2020532008A (ja) |
WO (1) | WO2019040214A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10455363B2 (en) * | 2015-11-04 | 2019-10-22 | xAd, Inc. | Systems and methods for using geo-blocks and geo-fences to discover lookalike mobile devices |
US10547971B2 (en) | 2015-11-04 | 2020-01-28 | xAd, Inc. | Systems and methods for creating and using geo-blocks for location-based information service |
US11328210B2 (en) | 2017-12-29 | 2022-05-10 | Micron Technology, Inc. | Self-learning in distributed architecture for enhancing artificial neural network |
US10522038B2 (en) | 2018-04-19 | 2019-12-31 | Micron Technology, Inc. | Systems and methods for automatically warning nearby vehicles of potential hazards |
EP3598339A1 (en) * | 2018-07-19 | 2020-01-22 | Tata Consultancy Services Limited | Systems and methods for end-to-end handwritten text recognition using neural networks |
US10349208B1 (en) | 2018-08-17 | 2019-07-09 | xAd, Inc. | Systems and methods for real-time prediction of mobile device locations |
US11172324B2 (en) | 2018-08-17 | 2021-11-09 | xAd, Inc. | Systems and methods for predicting targeted location events |
US11146911B2 (en) | 2018-08-17 | 2021-10-12 | xAd, Inc. | Systems and methods for pacing information campaigns based on predicted and observed location events |
US11134359B2 (en) | 2018-08-17 | 2021-09-28 | xAd, Inc. | Systems and methods for calibrated location prediction |
US11423284B2 (en) * | 2018-09-07 | 2022-08-23 | Black Sesame Technologies, Inc | Subgraph tile fusion in a convolutional neural network |
US20200104966A1 (en) * | 2018-09-30 | 2020-04-02 | Strong Force Intellectual Capital, Llc | Intelligent transportation systems |
US11526704B2 (en) * | 2018-10-26 | 2022-12-13 | Intel Corporation | Method and system of neural network object recognition for image processing |
US11948362B2 (en) * | 2018-10-31 | 2024-04-02 | Arcus Holding A/S | Object detection using a combination of deep learning and non-deep learning techniques |
US11373466B2 (en) | 2019-01-31 | 2022-06-28 | Micron Technology, Inc. | Data recorders of autonomous vehicles |
US11410475B2 (en) | 2019-01-31 | 2022-08-09 | Micron Technology, Inc. | Autonomous vehicle data recorders |
US10482584B1 (en) * | 2019-01-31 | 2019-11-19 | StradVision, Inc. | Learning method and learning device for removing jittering on video acquired through shaking camera by using a plurality of neural networks for fault tolerance and fluctuation robustness in extreme situations, and testing method and testing device using the same |
CN110032954B (zh) * | 2019-03-27 | 2021-05-14 | 中建三局第一建设工程有限责任公司 | 一种钢筋智能识别与计数方法及系统 |
US11037968B2 (en) * | 2019-04-05 | 2021-06-15 | Waymo Llc | Image sensor architecture |
CN110224862B (zh) * | 2019-05-20 | 2021-12-21 | 杭州电子科技大学 | 基于多层感知器的多智能体系统网络容侵能力评估方法 |
KR20220024718A (ko) * | 2019-06-18 | 2022-03-03 | 몰로코, 인크. | 머신 러닝 서비스를 제공하기 위한 방법 및 시스템 |
GB201909693D0 (en) * | 2019-07-05 | 2019-08-21 | Vaion Ltd | Computer-implemented method |
CN110348369B (zh) * | 2019-07-08 | 2021-07-06 | 北京字节跳动网络技术有限公司 | 一种视频场景分类方法、装置、移动终端及存储介质 |
US11636334B2 (en) | 2019-08-20 | 2023-04-25 | Micron Technology, Inc. | Machine learning with feature obfuscation |
US11392796B2 (en) | 2019-08-20 | 2022-07-19 | Micron Technology, Inc. | Feature dictionary for bandwidth enhancement |
US11755884B2 (en) | 2019-08-20 | 2023-09-12 | Micron Technology, Inc. | Distributed machine learning with privacy protection |
TWI709090B (zh) * | 2019-08-30 | 2020-11-01 | 阿證科技股份有限公司 | 類神經人工智慧決策網路核心系統及其資訊處理方法 |
US11531107B2 (en) * | 2019-11-19 | 2022-12-20 | Volvo Car Corporation | Long range LIDAR-based speed estimation |
JP7289427B2 (ja) * | 2020-02-28 | 2023-06-12 | 株式会社Pros Cons | プログラム、情報処理方法及び情報処理装置 |
JP7221454B2 (ja) * | 2020-09-01 | 2023-02-13 | 三菱電機株式会社 | 識別装置、学習装置およびモデル生成方法 |
CN112016522B (zh) * | 2020-09-25 | 2022-06-07 | 苏州浪潮智能科技有限公司 | 一种视频数据处理方法、系统及相关组件 |
JP2021090191A (ja) * | 2020-11-09 | 2021-06-10 | ネットスマイル株式会社 | ビデオ信号処理システムおよびビデオ信号処理方法 |
CN115857059B (zh) * | 2022-11-24 | 2023-07-07 | 中国民航科学技术研究院 | 一种积冰预报管理方法、系统、可读存储介质和设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020445A (ja) | 2008-07-09 | 2010-01-28 | Sony Corp | 学習装置、学習方法、およびプログラム |
JP2012022558A (ja) | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
US20170169358A1 (en) | 2015-12-09 | 2017-06-15 | Samsung Electronics Co., Ltd. | In-storage computing apparatus and method for decentralized machine learning |
JP2018041319A (ja) | 2016-09-08 | 2018-03-15 | 日本電信電話株式会社 | 移動状況学習装置、移動状況認識装置、方法、及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7418346B2 (en) * | 1997-10-22 | 2008-08-26 | Intelligent Technologies International, Inc. | Collision avoidance methods and systems |
JP4229051B2 (ja) * | 2004-11-26 | 2009-02-25 | 日産自動車株式会社 | 運転意図推定装置、車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 |
US10759446B2 (en) * | 2015-04-21 | 2020-09-01 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system, information processing method, and program |
US20180053102A1 (en) * | 2016-08-16 | 2018-02-22 | Toyota Jidosha Kabushiki Kaisha | Individualized Adaptation of Driver Action Prediction Models |
CN106446949B (zh) | 2016-09-26 | 2019-05-21 | 成都通甲优博科技有限责任公司 | 一种车辆型号识别方法及装置 |
GB2554435B (en) * | 2016-09-27 | 2019-10-23 | Univ Leicester | Image processing |
US10796204B2 (en) * | 2017-02-27 | 2020-10-06 | Huawei Technologies Co., Ltd. | Planning system and method for controlling operation of an autonomous vehicle to navigate a planned path |
US10324469B2 (en) * | 2017-03-28 | 2019-06-18 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling motion of vehicle in shared environment |
US11055605B2 (en) * | 2017-04-25 | 2021-07-06 | Nec Corporation | Detecting dangerous driving situations by parsing a scene graph of radar detections |
-
2017
- 2017-08-22 US US15/683,534 patent/US10217028B1/en active Active
-
2018
- 2018-07-20 WO PCT/US2018/043134 patent/WO2019040214A1/en unknown
- 2018-07-20 EP EP18750080.6A patent/EP3673417B1/en active Active
- 2018-07-20 JP JP2020511523A patent/JP2020532008A/ja active Pending
-
2022
- 2022-12-19 JP JP2022202375A patent/JP7393512B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020445A (ja) | 2008-07-09 | 2010-01-28 | Sony Corp | 学習装置、学習方法、およびプログラム |
JP2012022558A (ja) | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
US20170169358A1 (en) | 2015-12-09 | 2017-06-15 | Samsung Electronics Co., Ltd. | In-storage computing apparatus and method for decentralized machine learning |
JP2018041319A (ja) | 2016-09-08 | 2018-03-15 | 日本電信電話株式会社 | 移動状況学習装置、移動状況認識装置、方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
Joonas Haapala,"Recurrent neural networks for object detection in video sequences",Thesis submitted in partial fulllment of the requirements for the degree of Master of Science (Technology),フィンランド,Aalto University,2017年05月08日,pp.1-59,https://aaltodoc.aalto.fi/handle/123456789/26137 |
黎 明曦、外2名,"パラメータサーバを用いた並列機械学習システムにおける耐故障性のシミュレーション",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2016年08月01日,Vol.116, No.177,pp.125-130 |
Also Published As
Publication number | Publication date |
---|---|
EP3673417A1 (en) | 2020-07-01 |
JP2020532008A (ja) | 2020-11-05 |
JP2023036761A (ja) | 2023-03-14 |
WO2019040214A1 (en) | 2019-02-28 |
US20190065903A1 (en) | 2019-02-28 |
EP3673417B1 (en) | 2023-10-04 |
US10217028B1 (en) | 2019-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7393512B2 (ja) | ニューラルネットワークの分散学習および重み分配のためのシステム、および方法 | |
KR102599212B1 (ko) | 적응적 실시간 검출 및 검사 네트워크(arden) | |
US11928866B2 (en) | Neural networks for object detection and characterization | |
Chou et al. | Predicting motion of vulnerable road users using high-definition maps and efficient convnets | |
US20200160535A1 (en) | Predicting subject body poses and subject movement intent using probabilistic generative models | |
US20190050729A1 (en) | Deep learning solutions for safe, legal, and/or efficient autonomous driving | |
US20200311855A1 (en) | Object-to-robot pose estimation from a single rgb image | |
WO2018162933A1 (en) | Improved object recognition system | |
WO2021096776A1 (en) | Simulating diverse long-term future trajectories in road scenes | |
US11657291B2 (en) | Spatio-temporal embeddings | |
JP2023549036A (ja) | 点群からの効率的な三次元物体検出 | |
US20240046614A1 (en) | Computer-implemented method for generating reliability indications for computer vision | |
US20220230418A1 (en) | Computer-implemented method for training a computer vision model | |
Baghel et al. | Analysis of Ex-YOLO algorithm with other real-time algorithms for emergency vehicle detection | |
Lange et al. | Lopr: Latent occupancy prediction using generative models | |
Praneeth et al. | Scaling object detection to the edge with yolov4, tensorflow lite | |
US11804034B2 (en) | Training a function to respond predictably to differences | |
Kulkarni et al. | Key-track: A lightweight scalable lstm-based pedestrian tracker for surveillance systems | |
Fan et al. | Multiple obstacle detection for assistance driver system using deep neural networks | |
Lakshmi Priya et al. | Vehicle Detection in Autonomous Vehicles Using Computer Vision | |
Andrade et al. | Combining YOLO and Deep Reinforcement Learning for Autonomous Driving in Public Roadworks Scenarios. | |
Silva et al. | Long Range Object-Level Monocular Depth Estimation for UAVs | |
US20230347932A1 (en) | Evaluation of components of autonomous vehicles based on driving recommendations | |
US20240127075A1 (en) | Synthetic dataset generator | |
US20230365155A1 (en) | Virtual fields driving related operations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |