JP7474446B2 - マルチラベル予測に適したニューラルネットワークの射影層 - Google Patents
マルチラベル予測に適したニューラルネットワークの射影層 Download PDFInfo
- Publication number
- JP7474446B2 JP7474446B2 JP2021568620A JP2021568620A JP7474446B2 JP 7474446 B2 JP7474446 B2 JP 7474446B2 JP 2021568620 A JP2021568620 A JP 2021568620A JP 2021568620 A JP2021568620 A JP 2021568620A JP 7474446 B2 JP7474446 B2 JP 7474446B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural network
- projection
- training
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 182
- 238000012549 training Methods 0.000 claims description 130
- 239000013598 vector Substances 0.000 claims description 114
- 230000006870 function Effects 0.000 claims description 97
- 238000000034 method Methods 0.000 claims description 64
- 238000003860 storage Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 description 29
- 238000004590 computer program Methods 0.000 description 21
- 238000005457 optimization Methods 0.000 description 20
- 230000009977 dual effect Effects 0.000 description 7
- 230000001537 neural effect Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000002922 simulated annealing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010426 hand crafting Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005415 magnetization Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
入力xのπk(x)を計算するために最小化ベクトルy*を見つけることは、次の問題と同等であることを示すことができる。:g(v*)=kかつ
およびΔがシグモイドユニットを飽和させるのに十分な大きさのオフセットであるようにπ(x)が
P(G|I)=P(B|I)P(O|B,I)P(R|B,O,I)
すなわち、
P([Xi→j]ij|z,B,O,I)=Πi,jP(Xi→j|zij,B,O,I)
(付記1)
ニューラルネットワークを訓練するためのニューラルネットワーク訓練装置であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記装置は、
訓練データにアクセスするための通信インターフェースと、
前記一連のニューラルネットワーク層の複数の層についてのパラメータを記憶するように構成されたニューラルネットワークストレージと、
前記一連のニューラルネットワーク層を前記訓練データのデータに適用し、前記記憶されたパラメータを調整して前記ネットワークを訓練するように構成されたプロセッサシステムと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影するように構成され、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
装置。
前記調整項は、前記出力ベクトル(y)の係数に適用される関数の合計であり、前記関数は凸で連続であり、0と1の間の入力の最小値を有し、および/または、
前記射影項は、前記層入力ベクトルと同じ方向のベクトルの場合、単位長のベクトルに渡って線形かつ最小である、
付記1に記載の訓練装置。
前記射影層は、前記一連のニューラルネットワーク層の最終層である、
付記1に記載の訓練装置。
前記訓練データは、1つまたは複数のラベルでアノテートされたセンサデータを含み、前記ニューラルネットワークは、前記訓練データに従って、センサデータに与えられた数のラベルを生成するように訓練され、前記ラベルの数は、前記合計パラメータ(k)に等しい、
付記1に記載の訓練装置。
前記訓練データは、不完全なラベル情報でアノテートされる、
付記4に記載の訓練装置。
シーングラフ生成タスクにおいて使用される訓練装置であって、
前記訓練データは、オブジェクトおよび前記オブジェクト間の関係でアノテートされたセンサデータを含み、
前記ネットワークは、前記シーングラフに対するエッジの関係のセットを生成するように構成され、
前記セットは、前記合計パラメータに等しい要素数を持つ、
付記1に記載の訓練装置。
前記層損失関数を最適化することは、前記層出力ベクトル(y)を得るために反復近似アルゴリズムを適用することを含む、
付記1に記載の訓練装置。
前記層損失関数を最適化することは、スカラー(v*)を最適化することを含み、
前記層出力ベクトルは、関数を前記層入力ベクトルおよび最適化された前記スカラー(yi *=σ(xi+v*))に適用することによって計算される、
付記1に記載の訓練装置。
前記スカラー(v*)の上限および/または下限は、前記層入力ベクトル(x)をソートし、成分を選択し、値を加算および/または減算することによって得られる、
付記8に記載の訓練装置。
前記最適化することは二分法である、
付記8に記載の訓練装置。
訓練されたニューラルネットワークを適用するためのニューラルネットワーク適用装置であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記装置は、
入力データを受信するための通信インターフェースと、
前記一連のニューラルネットワーク層の複数の層の訓練されたパラメータを記憶するように構成されたニューラルネットワークストレージと、
前記一連のニューラルネットワーク層を前記入力データに適用するように構成されたプロセッサシステムと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、射影層は合計パラメータ(k)のために構成され、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影するように構成され、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、ここで、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
装置。
付記11に記載のニューラルネットワーク装置を有する自律装置コントローラであって、
前記入力データが自律装置のセンサデータに適用され、前記ニューラルネットワークがセンサデータ内のオブジェクトを分類するように構成され、自律装置コントロールが前記分類に応じた意思決定のために構成される、
自律装置コントローラ。
ニューラルネットワークを訓練するためのニューラルネットワーク訓練方法であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記方法は、
訓練データにアクセスすることと、
前記一連のニューラルネットワーク層の複数の層のパラメータを記憶することと、
前記一連のニューラルネットワーク層を前記訓練データのデータに適用し、記憶された前記パラメータを調整して前記ネットワークを訓練することと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層を適用することは、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影することを含み、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
方法。
訓練されたニューラルネットワークを適用するためのニューラルネットワーク方法であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記方法は、
入力データを受信することと、
前記一連のニューラルネットワーク層の複数の層に対して訓練されたパラメータを記憶することと、
前記一連のニューラルネットワーク層を前記入力データに適用することと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層を適用することは、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影することを含み、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
方法。
プロセッサシステムによって実行されると、前記プロセッサシステムに付記13に記載の方法を実行させる、命令を表すデータを有する、
一時的または非一時的なコンピュータ読み取り可能媒体。
前記訓練データは、1つまたは複数のラベルでアノテーションされたセンサデータを含み、前記ニューラルネットワークは、前記訓練データに従って、センサデータに与えられた数のラベルを生成するように訓練され、前記ラベルの数は、合計パラメータ(k)に等しい、
付記2に記載の訓練装置。
前記調整項の前記関数は、マイナスの2値エントロピー関数(-Hb(y))を含み、および/または、
前記射影項は、前記層入力ベクトルと前記層出力ベクトルのマイナスの内積(-〈x,y〉)を含む、
付記2に記載の訓練装置。
前記最適化することは二分法である、
付記9に記載の訓練装置。
プロセッサシステムによって実行されると、前記プロセッサシステムに付記14に記載の方法を実行させる、命令を表すデータを有する、
一時的または非一時的なコンピュータ読み取り可能媒体。
100 ニューラルネットワーク訓練装置
120 一連のニューラルネットワーク層
130 バックプロパゲーションユニット
121,122 ニューラルネットワーク層
144 射影層
125,126 通信インタフェース
132 訓練ストレージ
134 ニューラルネットワークストレージ
140 アプリケーションユニット
142 射影層ユニット
146 射影層のバックプロパゲーション
311 1000クラス
312 10000クラス
313 時間
315 SA
316 DC
317 バックワード
318 Entrtr
319 LML
331 エポック
332 再現率
333 Zellers他
334 Entrtr
335 LML
1000 コンピュータ読み取り可能媒体
1010 書き換え可能部分
1020 コンピュータプログラム
1110 集積回路
1120 処理ユニット
1122 メモリ
1124 専用集積回路
1126 通信素子
1130 相互接続
1140 プロセッサシステム
Claims (19)
- ニューラルネットワークを訓練するためのニューラルネットワーク訓練装置であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記装置は、
訓練データにアクセスするための通信インターフェースと、
前記一連のニューラルネットワーク層の複数の層についてのパラメータを記憶するように構成されたニューラルネットワークストレージと、
前記一連のニューラルネットワーク層を前記訓練データのデータに適用し、前記記憶されたパラメータを調整して前記ネットワークを訓練するように構成されたプロセッサシステムと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影するように構成され、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
装置。 - 前記調整項は、前記出力ベクトル(y)の係数に適用される関数の合計であり、前記関数は凸で連続であり、0と1の間の入力の最小値を有し、および/または、
前記射影項は、前記層入力ベクトルと同じ方向のベクトルの場合、単位長のベクトルに渡って線形かつ最小である、
請求項1に記載の訓練装置。 - 前記射影層は、前記一連のニューラルネットワーク層の最終層である、
請求項1に記載の訓練装置。 - 前記訓練データは、1つまたは複数のラベルでアノテートされたセンサデータを含み、前記ニューラルネットワークは、前記訓練データに従って、センサデータに与えられた数のラベルを生成するように訓練され、前記ラベルの数は、前記合計パラメータ(k)に等しい、
請求項1に記載の訓練装置。 - 前記訓練データは、不完全なラベル情報でアノテートされる、
請求項4に記載の訓練装置。 - シーングラフ生成タスクにおいて使用される訓練装置であって、
前記訓練データは、オブジェクトおよび前記オブジェクト間の関係でアノテートされたセンサデータを含み、
前記ネットワークは、前記シーングラフに対するエッジの関係のセットを生成するように構成され、
前記セットは、前記合計パラメータに等しい要素数を持つ、
請求項1に記載の訓練装置。 - 前記層損失関数を最適化することは、前記層出力ベクトル(y)を得るために反復近似アルゴリズムを適用することを含む、
請求項1に記載の訓練装置。 - 前記層損失関数を最適化することは、スカラー(v*)を最適化することを含み、
前記層出力ベクトルは、関数を前記層入力ベクトルおよび最適化された前記スカラー(yi *=σ(xi+v*))に適用することによって計算される、
請求項1に記載の訓練装置。 - 前記スカラー(v*)の上限および/または下限は、前記層入力ベクトル(x)をソートし、成分を選択し、値を加算および/または減算することによって得られる、
請求項8に記載の訓練装置。 - 前記最適化することは二分法である、
請求項8に記載の訓練装置。 - 訓練されたニューラルネットワークを適用するためのニューラルネットワーク適用装置であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記装置は、
入力データを受信するための通信インターフェースと、
前記一連のニューラルネットワーク層の複数の層の訓練されたパラメータを記憶するように構成されたニューラルネットワークストレージと、
前記一連のニューラルネットワーク層を前記入力データに適用するように構成されたプロセッサシステムと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、射影層は合計パラメータ(k)のために構成され、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影するように構成され、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、ここで、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
装置。 - 請求項11に記載のニューラルネットワーク装置を有する自律装置コントローラであって、
前記入力データが自律装置のセンサデータに適用され、前記ニューラルネットワークがセンサデータ内のオブジェクトを分類するように構成され、自律装置コントロールが前記分類に応じた意思決定のために構成される、
自律装置コントローラ。 - ニューラルネットワークを訓練するためのニューラルネットワーク訓練方法であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記方法は、
訓練データにアクセスすることと、
前記一連のニューラルネットワーク層の複数の層のパラメータを記憶することと、
前記一連のニューラルネットワーク層を前記訓練データのデータに適用し、記憶された前記パラメータを調整して前記ネットワークを訓練することと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層を適用することは、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影することを含み、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
方法。 - 訓練されたニューラルネットワークを適用するためのニューラルネットワーク方法であって、前記ニューラルネットワークは一連のニューラルネットワーク層を含み、前記方法は、
入力データを受信することと、
前記一連のニューラルネットワーク層の複数の層に対して訓練されたパラメータを記憶することと、
前記一連のニューラルネットワーク層を前記入力データに適用することと、
を含み、
前記一連のニューラルネットワーク層の少なくとも1つの層は射影層であり、前記射影層は合計パラメータ(k)のために構成され、前記射影層を適用することは、前記射影層の層入力ベクトル(x)を層出力ベクトル(y)に射影することを含み、前記射影することは、前記射影層出力ベクトル(y)の合計が前記合計パラメータ(k)になるという条件の下、前記層出力ベクトルに適用される層損失関数を最適化することを含み、前記層損失関数は調整項(-Hb(y))と射影項(-〈x,y〉)を含む、
方法。 - プロセッサシステムによって実行されると、前記プロセッサシステムに請求項13に記載の方法を実行させる、命令を表すデータを有する、
一時的または非一時的なコンピュータ読み取り可能媒体。 - 前記訓練データは、1つまたは複数のラベルでアノテーションされたセンサデータを含み、前記ニューラルネットワークは、前記訓練データに従って、センサデータに与えられた数のラベルを生成するように訓練され、前記ラベルの数は、合計パラメータ(k)に等しい、
請求項2に記載の訓練装置。 - 前記調整項の前記関数は、マイナスの2値エントロピー関数(-Hb(y))を含み、および/または、
前記射影項は、前記層入力ベクトルと前記層出力ベクトルのマイナスの内積(-〈x,y〉)を含む、
請求項2に記載の訓練装置。 - 前記最適化することは二分法である、
請求項9に記載の訓練装置。 - プロセッサシステムによって実行されると、前記プロセッサシステムに請求項14に記載の方法を実行させる、命令を表すデータを有する、
一時的または非一時的なコンピュータ読み取り可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/415,500 US11875252B2 (en) | 2019-05-17 | 2019-05-17 | Neural network including a neural network projection layer configured for a summing parameter |
US16/415,500 | 2019-05-17 | ||
PCT/EP2020/061739 WO2020233952A1 (en) | 2019-05-17 | 2020-04-28 | Projection layer for a neural network suitable for multi-label prediction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022532781A JP2022532781A (ja) | 2022-07-19 |
JP7474446B2 true JP7474446B2 (ja) | 2024-04-25 |
Family
ID=70480259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568620A Active JP7474446B2 (ja) | 2019-05-17 | 2020-04-28 | マルチラベル予測に適したニューラルネットワークの射影層 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11875252B2 (ja) |
JP (1) | JP7474446B2 (ja) |
KR (1) | KR20220003093A (ja) |
WO (1) | WO2020233952A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210125064A1 (en) * | 2019-10-24 | 2021-04-29 | Preferred Networks, Inc. | Method and apparatus for training neural network |
EP3885848A1 (en) * | 2020-03-24 | 2021-09-29 | Robert Bosch GmbH | Controller with neural network and improved stability |
US20220084677A1 (en) * | 2020-09-14 | 2022-03-17 | Novocura Tech Health Services Private Limited | System and method for generating differential diagnosis in a healthcare environment |
CN115601513A (zh) * | 2021-06-28 | 2023-01-13 | 华为技术有限公司(Cn) | 一种模型超参数的选择方法及相关装置 |
US11907500B2 (en) | 2022-04-26 | 2024-02-20 | Truist Bank | Automated processing and dynamic filtering of content for display |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200103A (ja) | 1998-08-06 | 2000-07-18 | Yamaha Motor Co Ltd | 疑似感情及び疑似性格を用いた制御対象の制御方法、使用者に適合して動作する自律装置、及び使用者の特徴に装置の行動を適合させる方法 |
JP2017091525A (ja) | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
WO2018140335A1 (en) | 2017-01-30 | 2018-08-02 | Microsoft Technology Licensing, Llc | Continuous learning for intrusion detection |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367702A (en) * | 1993-01-04 | 1994-11-22 | Texas Instruments Incorporated | System and method for approximating nonlinear functions |
US20120030020A1 (en) * | 2010-08-02 | 2012-02-02 | International Business Machines Corporation | Collaborative filtering on spare datasets with matrix factorizations |
GB2554633B (en) | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
US10229092B2 (en) * | 2017-08-14 | 2019-03-12 | City University Of Hong Kong | Systems and methods for robust low-rank matrix approximation |
US10452923B2 (en) * | 2017-11-28 | 2019-10-22 | Visual Semantics, Inc. | Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation |
US11003862B2 (en) * | 2019-03-20 | 2021-05-11 | Adobe Inc. | Classifying structural features of a digital document by feature type using machine learning |
-
2019
- 2019-05-17 US US16/415,500 patent/US11875252B2/en active Active
-
2020
- 2020-04-28 KR KR1020217039710A patent/KR20220003093A/ko unknown
- 2020-04-28 JP JP2021568620A patent/JP7474446B2/ja active Active
- 2020-04-28 WO PCT/EP2020/061739 patent/WO2020233952A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200103A (ja) | 1998-08-06 | 2000-07-18 | Yamaha Motor Co Ltd | 疑似感情及び疑似性格を用いた制御対象の制御方法、使用者に適合して動作する自律装置、及び使用者の特徴に装置の行動を適合させる方法 |
JP2017091525A (ja) | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
WO2018140335A1 (en) | 2017-01-30 | 2018-08-02 | Microsoft Technology Licensing, Llc | Continuous learning for intrusion detection |
Non-Patent Citations (3)
Title |
---|
LAPIN, M et al.,"Top-k Multiclass SVM",arXiv.org [online],2015年,pp. 1-14,[retrieved on 2024.03.04], Retrieved from the Internet: <URL: https://arxiv.org/abs/1511.06683v1>,<DOI: 10.48550/arXiv.1511.06683> |
堀 貴博 ほか,"グラフ構造表現による一般物体認識",電子情報通信学会技術研究報告,社団法人 電子情報通信学会,2011年,第111巻, 第353号,pp. 19-24,ISSN 0913-5685 |
立間 淳司 ほか,"正準相関分析を用いた三次元物体のアノテーション",情報処理学会 研究報告 グラフィクスとCAD(CG),情報処理学会,2013年,第2013-CG-152巻, 第8号,pp. 1-8 |
Also Published As
Publication number | Publication date |
---|---|
US11875252B2 (en) | 2024-01-16 |
WO2020233952A1 (en) | 2020-11-26 |
JP2022532781A (ja) | 2022-07-19 |
US20200364553A1 (en) | 2020-11-19 |
KR20220003093A (ko) | 2022-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7474446B2 (ja) | マルチラベル予測に適したニューラルネットワークの射影層 | |
LeCun | A path towards autonomous machine intelligence version 0.9. 2, 2022-06-27 | |
Arora et al. | A survey of inverse reinforcement learning: Challenges, methods and progress | |
Kollmannsberger et al. | Deep learning in computational mechanics | |
Sugiyama | Statistical reinforcement learning: modern machine learning approaches | |
Fenjiro et al. | Deep reinforcement learning overview of the state of the art | |
CN112084836A (zh) | 机器学习系统 | |
JP2022549859A (ja) | 後知恵モデリングを用いた行動選択ニューラルネットワークの訓練 | |
US20210394784A1 (en) | Making time-series predictions using a trained decoder model | |
CN112633463B (zh) | 用于建模序列数据中长期依赖性的双重递归神经网络架构 | |
JP7540632B2 (ja) | 半定値計画問題を解く層を有するニューラルネットワーク | |
Kimmel et al. | Belief-space planning using learned models with application to underactuated hands | |
EP3764284B1 (en) | Adapting a base classifier to novel classes | |
EP3627403A1 (en) | Training of a one-shot learning classifier | |
Lou et al. | Offline reinforcement learning with representations for actions | |
US20220253698A1 (en) | Neural network-based memory system with variable recirculation of queries using memory content | |
US20240133694A1 (en) | Method and device with path distribution estimation | |
Faulkner et al. | Dyna planning using a feature based generative model | |
US20220269980A1 (en) | Random classification model head for improved generalization | |
Kolb et al. | Learning to Request Guidance in Emergent Communication | |
Akila Agnes et al. | Analyzing the effect of optimization strategies in deep convolutional neural network | |
CN113487027A (zh) | 基于时序对齐预测的序列距离度量方法、存储介质及芯片 | |
Koh et al. | Artificial Intelligence (AI) Fundamentals for the Display Industry: A Review | |
Vogt | An overview of deep learning and its applications | |
Bouteiller | Managing the World Complexity: From Linear Regression to Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220125 Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20211116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7474446 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |