JP2021501391A - 深層マルチタスクネットワークにおける適応的損失平衡のための勾配正規化システムおよび方法 - Google Patents
深層マルチタスクネットワークにおける適応的損失平衡のための勾配正規化システムおよび方法 Download PDFInfo
- Publication number
- JP2021501391A JP2021501391A JP2020520481A JP2020520481A JP2021501391A JP 2021501391 A JP2021501391 A JP 2021501391A JP 2020520481 A JP2020520481 A JP 2020520481A JP 2020520481 A JP2020520481 A JP 2020520481A JP 2021501391 A JP2021501391 A JP 2021501391A
- Authority
- JP
- Japan
- Prior art keywords
- task
- gradient
- tasks
- loss
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 115
- 238000010606 normalization Methods 0.000 title description 32
- 230000003044 adaptive effect Effects 0.000 title description 7
- 238000012549 training Methods 0.000 claims abstract description 251
- 230000006870 function Effects 0.000 claims description 147
- 238000013528 artificial neural network Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 28
- 230000001052 transient effect Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000003190 augmentative effect Effects 0.000 claims description 11
- 238000003058 natural language processing Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 230000008447 perception Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 18
- 238000011176 pooling Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000001976 improved effect Effects 0.000 description 9
- 230000003068 static effect Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 241000256837 Apidae Species 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004820 blood count Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 210000000265 leukocyte Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010061818 Disease progression Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010035664 Pneumonia Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009533 lab test Methods 0.000 description 1
- WABPQHHGFIMREM-UHFFFAOYSA-N lead(0) Chemical compound [Pb] WABPQHHGFIMREM-UHFFFAOYSA-N 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Abstract
Description
本願は、それらの各々が「Gradient Normalization Systems and Methods for Adaptive Loss Balancing in Deep Multitask Networks」と題され、それらの各々の内容が参照することによってその全体として本明細書に組み込まれる2017年10月26日に出願された米国特許第出願第62/577,705号、2017年12月16日に出願された米国特許第出願第62/599,693号、2018年2月8日に出願された米国特許第出願第62/628,266号、および2018年7月9日に出願された米国特許第出願第62/695,356号の優先権の利益を主張する。
本特許文書の開示の一部分は、著作権保護を受けるべき材料を含む。本著作権所有者は、本特許文書または本特許開示を誰が複写しても、それが特許商標局の特許ファイルまたは記録に現れる通りである限りでは異議はないが、その他の場合、いかなる著作権もすべて保有する。
本開示は、概して、機械学習のためのシステムおよび方法に関し、より具体的には、機械学習モデルを訓練することに関する。
関数、アルゴリズム、システム等のデータ関係およびパターンを表すモデルは、入力を受け取り、ある方法において、入力に対応する出力を生産し得る。例えば、モデルは、畳み込みニューラルネットワーク(CNN)または深層ニューラルネットワーク(DNN)等の機械学習方法として実装され得る。深層学習は、タスク特定の方法とは対照的に、学習データ表現の概念に基づくより広義の機械学習方法の系統の一部であり、拡張現実、複合現実、仮想現実、および機械知能のために有用な視聴覚計算問題を解決することにおける大きな有望性を示す。機械学習では、畳み込みニューラルネットワーク(CNNまたはConvNet)は、あるクラスの深層フィードフォワード人工ニューラルネットワークを含むことができ、CNNは、視覚的画像の分析への適用において成功を収めている。機械学習方法は、眼画像分割または眼追跡を含む様々な問題に対するロバストかつ正確なソリューションを有効にし得るある系統の方法を含む。
マルチタスク損失関数L(t)=Σwi(t)Li(t)に関して、関数wi(t)は、以下の目的を伴って学習されることができる:(1)異なるタスクに関する勾配ノルムを共通スケール上に設置すること(共通スケールを通してそれらの相対的規模を推測すべき)、(2)異なるタスクが同様のレートで訓練されるように、勾配ノルムを動的に調節すること。関連量が、下で説明され、最初に、操作勾配に関する。
(例えば、
GradNormは、勾配の規模に関する共通スケールを確立することができ、および/または、GradNormは、異なるタスクの訓練レートの平衡を保つことができる。一例では、勾配に関する共通スケールは、平均勾配ノルム、
表2は、本明細書に説明される勾配正規化技術の実施形態を実施するために使用され得る例示的擬似コードプログラミング言語を示す。
NYUv2の2つの変形が、主要なデータセットとして使用された。標準NYUv2データセットは、異なる部屋タイプ(洗面所、居間、書斎等)内の種々の屋内場面に関する深度、面法線、および意味的分割ラベル(13個の異なるクラスにクラスタ化される)を伝える。NYUv2は、比較的に小規模(795枚の訓練、654枚の試験画像)であるが、回帰ラベルおよび分類ラベルの両方を含み、それを種々のタスクを横断したGradNormのロバスト性を試験するための良好な選択肢とする。
(1)対称VGG16エンコーダ/デコーダを伴うSegNetネットワークと、(2)修正されたResNet−50エンコーダおよび浅層ResNetデコーダを伴う完全畳み込みネットワーク(FCN)ネットワークの2つの異なるモデルが、調査された。VGG SegNetは、最大プーリングインデックスを再使用し、アップサンプリングを実施した一方、ResNet FCNは、全てのアップサンプリングフィルタを学習した。ResNetアーキテクチャは、より重く、より複雑なVGG SegNetと対照的に、さらに薄層化された(そのフィルタおよび作動の両方において):ストライド−2層は、繰り上げられ、全ての2048−フィルタ層は、1024−フィルタ層によって置換された。最終的に、VGG SegNetは、薄層ResNetに関する15M個に対して、29M個のパラメータを有した。全てのモデルパラメータは、最終層まで、全てのタスク間で共有された。結果は、基本アーキテクチャの選択に対するGradNormのロバスト性を示した。前述の例モデルは、例証のみのためのものであり、限定することを意図するものではない。GradNormは、例えば、「Deep learning system for cuboid detection」と題された米国特許公開第2018/0137642号(その内容は、参照することによってその全体として本明細書に組み込まれる)に説明されるように、例えば、再帰ニューラルネットワークを含む任意の他のタイプのニューラルネットワークに適用されることができる。
表3は、NYUv2+segデータセットに基づくGradNormの性能の例を示す。GradNorm α=1.5は、等重みベースライン(全てのt,iに関してwi=1)に対して3つのタスク全ての性能を改良し、各タスクに関する単一ネットワークの最良性能を上回ったか、またはそれに匹敵したか(統計的雑音内)のいずれであった。GradNorm静的ネットワークは、GradNorm訓練実行中の各タスクに関する時間平均重みΣt[wi(t)]を計算し、それらの値に固定される重みを用いて、ネットワークを再訓練することによって、GradNormネットワークから導出される静的重みを使用した。GradNormはまた、したがって、静的重みのための良好な値を抽出するためにも使用されることができる。下で示されるように、これらの重みは、包括的グリッド検索から抽出された最適重みに非常に近い。
VGG SegNetに関して、100個のネットワークが、NYUv2+kptsにおけるランダムタスク重みを用いて最初から訓練された。重みは、均一分布からサンプリングされ、和がT=3であるように再正規化された。計算効率のために、訓練は、通常の80,000回のうちから15,000回の反復を含み、次いで、そのネットワークの性能が、同一15,000ステップにおいて、GradNorm α=1.5 VGG SegNetネットワークと比較された。結果は、図4に示される。図4は、ランダムタスク重み対GradNormのNYUv2+kptsに関するグリッド検索性能を示す。重みwi staticを伴う静的マルチタスクネットワークに関する3つのタスクを横断した性能の平均変化が、wi staticとGradNormネットワークから導出される静的重みのセットEt[wi(t)]との間のL2距離に対してプロットされた。ゼロ性能変化における基準線が、参照のために示される。全ての比較は、訓練の15,000ステップにおいて行われた。
これらの例示的数値実験では、方法における唯一のハイパーパラメータは、ハイパーパラメータαであり、それは、本明細書に説明されるように、非対称パラメータとも称される。NYUv2に関するαの最適値は、約α=1.5であった一方、上記の節における高度に対称の例では、α=0.12が、使用された。この観察は、非対称パラメータとしてのαの特徴付けを強化する。
試験セット画像におけるVGG SegNet出力の可視化は、NYUv2+segおよびNYUv2+kptsデータセットの両方に関して、グラウンドトゥルースとともに、Chen et al.,GradNorm:Gradient Normalization for Adaptive Loss Balancing in Deep Multitask Networks,Proceedings of the 35th International Conferenceon Machine Learning(2018),793−802(以降、「Chen et al.」)(その内容は、参照することによってその全体として本明細書に組み込まれる)の図6に示される。グラウンドトゥルースラベルは、等重みネットワーク、3つの単一ネットワーク、および最良GradNormネットワークからの出力と並べて示されている。いくつかの改良は、漸増であるが、GradNormは、タスクにおいてより優れた視覚的結果を生産し、それに関して、表3および4において、有意な定量的改良が認められている。
α非対称ハイパーパラメータは、タスク間の対称における種々の異なる初期値のための適応を可能にすることができる。αの低い値は、タスクを横断して同様の規模である勾配ノルムをもたらし、各タスクがほぼ等しい影響を訓練全体を通して訓練動態に及ぼすことを確実にし得る。αの高い値は、損失がよりゆっくりと低下するタスクにより大きい重みをかける代わりに、損失があまりにも迅速に低下するタスクにペナルティを科し得る。
追加の実験が、マルチタスク顔ランドマーク(MTFL)データセット上で実施された。このデータセットは、顔の約13,000枚の画像を含み、10,000枚の画像の訓練セットおよび3,000枚の画像の試験セットに分割される。画像の各々は、4つのクラスラベル(性別、笑顔、眼鏡、および姿勢)とともに、5つの顔ランドマーク(左眼、右眼、鼻、左唇、および右唇)の(x,y)座標で分類される。データセットからの例示的ラベルは、(性別:男性、笑顔:真、眼鏡:偽、姿勢:正面)、(性別:女性、笑顔:真、眼鏡:偽、姿勢:左)、および(性別:男性、笑顔:偽、眼鏡:真、姿勢:左)を含む。
本明細書に説明されるように、勾配正規化は、良好なモデル正則化子として作用し、ネットワーク内の勾配に直接作用することによって、マルチタスクネットワークにおける優れた性能につながることができる。GradNormは、レート平衡の魅力的に単純ヒューリスティックによって駆動されることができ、同一統合モデル内の可変複雑性の問題に適応することができ、いくつかの実施形態では、タスク非対称を表す単一ハイパーパラメータのみを使用する。GradNormネットワークはまた、最適固定タスク重みを迅速に抽出し、タスクの数に伴って指数関数的により高価になる、包括的グリッド検索方法の必要性を除去するために使用されることができる。
図8は、マルチタスクネットワークを訓練する例示的プロセス800のフロー図である。マルチタスクネットワークは、複数のタスクに関連付けられた出力を決定するために使用されることができる。マルチタスクネットワークは、複数の共有層と、複数のタスク特定のフィルタを備えている出力層とを備えていることができる。マルチタスクネットワークの出力層は、アフィン変換層を備えていることができる。非一過性メモリと、ハードウェアプロセッサとを伴うコンピューティングシステム等のコンピューティングシステムは、プロセス800を実装し、マルチタスクネットワークを訓練することができる。コンピューティングシステムの非一過性メモリは、実行可能命令を記憶すること、または記憶するように構成されることができる。ハードウェアプロセッサは、非一過性メモリと通信し、実行可能命令によって、プロセス800を実施し、GradNormの実施形態を使用して、マルチタスクネットワークを訓練するようにプログラムされることができる。
深層ニューラルネットワーク(DNN)等のニューラルネットワーク(NN)の層は、線形または非線形変換をその入力に適用し、その出力を生成することができる。深層ニューラルネットワーク層は、正規化層、畳み込み層、ソフトサイン層、正規化線形層、連結層、プーリング層、再帰層、インセプション様層、または任意のそれらの組み合わせであることができる。正規化層は、例えば、L2正規化を用いて、その入力の明度を正規化し、その出力を生成することができる。正規化層は、例えば、互いに対して一度に複数の画像の明度を正規化し、複数の正規化された画像をその出力として生成することができる。明度を正規化するための非限定的例示的方法は、ローカルコントラスト正規化(LCN)またはローカル応答正規化(LRN)を含む。ローカルコントラスト正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するようにピクセル毎に画像のローカル領域を正規化することによって、画像のコントラストを非線形に正規化することができる。ローカル応答正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するように、画像をローカル入力領域にわたって正規化することができる。正規化層は、訓練プロセスを加速し得る。
いくつかの実施形態では、ユーザデバイスは、ウェアラブルディスプレイデバイスであり得るか、または、ウェアラブルディスプレイデバイス内に含まれることができ、それは、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える様式、または現実として知覚され得る様式で装着者に提示される。
GradNormの実施形態は、マルチタスクネットワークが画像または視覚的データ上で訓練されるコンピュータビジョンタスクに限定されない。他の実施形態では、訓練サンプルは、オーディオデータ、加速データ、測位データ、温度データ、無線周波数データ、または光学追跡データ等のセンサによって捕捉された非画像データを含むことができる。センサの例は、オーディオセンサ(例えば、マイクロホン)、慣性測定ユニット(IMUs)、加速度計、コンパス、ジャイロスコープ、温度センサ、移動センサ、深度センサ、全地球測位システム(GPS)ユニット、および無線デバイスを含む。他の実施形態では、医療関連タスクに関する訓練サンプルは、性別、年齢、心拍数、体温、白血球数、疾患状態、疾患進行度、症状、疾患診断等の測定を含むことができる。例えば、発話認識または自然言語処理に関連するタスクに関して、訓練サンプルは、オーディオデータセット(またはビデオに添付されるオーディオデータ)または単語、文、段落、もしくはテキストの電子表現または埋め込み(例えば、n−グラム)を含むことができる。タスクは、例えば、品詞(POS)タグ付け、チャンク化依存性解析、意味的関連性、またはテキスト含意を含むことができる。
第1の側面では、マルチタスクネットワークを訓練するためのシステムが、開示される。システムは、実行可能命令と、複数のタスクに関連付けられた出力を決定するためのマルチタスクネットワークとを記憶するように構成される非一過性メモリと、非一過性メモリと通信しているハードウェアプロセッサとを備え、ハードウェアプロセッサは、複数のタスクに関する複数の基準タスク出力に関連付けられた訓練画像を受信することと、複数のタスクの各タスクに関して、(1)訓練画像を入力として用いて、マルチタスクネットワークを使用して決定されたタスクに関するタスク出力と、(2)マルチタスクネットワークの複数のネットワーク重みに対するタスクに関するタスク重みによって調節された訓練画像に関連付けられたタスクに関する対応する基準タスク出力とのシングルタスク損失の勾配ノルムを決定することと、タスクに関するシングルタスク損失に基づくタスクに関する相対的訓練レートを決定することと、(1)各タスクに関する決定された勾配ノルムと、(2)(a)複数のタスクの平均勾配ノルムと、(b)タスクに関する相対的訓練レートと、(c)ハイパーパラメータとに基づいて決定された対応する標的勾配ノルムとの間の差異を含む勾配損失関数を決定することと、複数のタスクの各々に関するタスク重みに対する勾配損失関数の勾配を決定することと、タスク重みに対する勾配損失関数の勾配を使用して、複数のタスクの各タスクに関して更新されたタスク重みを決定することとを行うための実行可能命令によってプログラムされる。
(追加の考慮事項)
Claims (37)
- マルチタスクネットワークを訓練するためのシステムであって、前記システムは、
非一過性メモリであって、前記非一過性メモリは、
実行可能命令と、
複数のタスクに関連付けられた出力を決定するためのマルチタスクネットワークと
を記憶するように構成されている、非一過性メモリと、
前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、前記実行可能命令によってプログラムされており、
前記命令は、
前記複数のタスクに関する複数の基準タスク出力に関連付けられた訓練画像を受信することと、
前記複数のタスクの各タスクに関して、
(1)前記訓練画像を入力として用い、前記マルチタスクネットワークを使用して決定された前記タスクに関するタスク出力と、(2)前記訓練画像に関連付けられた前記タスクに関する対応する基準タスク出力とのシングルタスク損失の勾配ノルムを決定することであって、前記対応する基準タスク出力は、前記マルチタスクネットワークの複数のネットワーク重みに対する前記タスクに関するタスク重みによって調節されている、ことと、
前記タスクに関する前記シングルタスク損失に基づいて、前記タスクに関する相対的訓練レートを決定することと
を行うことと、
勾配損失関数を決定することであって、前記勾配損失関数は、(1)各タスクに関して決定された前記勾配ノルムと、(2)対応する標的勾配ノルムとの間の差異を含み、前記対応する標的勾配ノルムは、(a)前記複数のタスクの平均勾配ノルムと、(b)前記タスクに関する前記相対的訓練レートと、(c)ハイパーパラメータとに基づいて決定される、ことと、
前記複数のタスクの各々に関するタスク重みに対する前記勾配損失関数の勾配を決定することと、
前記タスク重みに対する前記勾配損失関数の前記勾配を使用して、前記複数のタスクの各タスクに関して更新されたタスク重みを決定することと
を行うためのものである、システム。 - 前記ハードウェアプロセッサは、(1)前記訓練画像を入力として用い、前記マルチタスクネットワークを使用して決定された各タスクに関する前記タスク出力と、(2)前記訓練画像に関連付けられた前記タスクに関する前記対応するタスク出力との前記シングルタスク損失を決定するための前記実行可能命令によってさらにプログラムされている、請求項1に記載のシステム。
- 前記非一過性メモリは、前記複数のタスクに関連付けられた複数の損失関数をさらに記憶するように構成されている、請求項2に記載のシステム。
- 前記シングルタスク損失を決定するために、前記ハードウェアプロセッサは、前記タスクに関連付けられた前記複数の損失関数のうちの損失関数を使用して、(1)前記訓練画像を入力として用い、前記マルチタスクネットワークを使用して決定された各タスクに関する前記タスク出力と、(2)前記訓練画像に関連付けられた前記タスクに関する前記対応するタスク出力との前記シングルタスク損失を決定するための前記実行可能命令によってさらにプログラムされている、請求項3に記載のシステム。
- 前記ハードウェアプロセッサは、
各タスクに関する前記タスク重みによって調節された前記シングルタスク損失を含むマルチタスク損失関数を決定することと、
前記マルチタスクネットワークの全てのネットワーク重みに対する前記マルチタスク損失関数の勾配を決定することと、
前記マルチタスク損失関数の前記勾配に基づいて、前記マルチタスクネットワークの更新されたネットワーク重みを決定することと
を行うための前記実行可能命令によってさらにプログラムされている、請求項1に記載のシステム。 - 前記タスク重みによって調節された前記シングルタスク損失の前記勾配ノルムは、前記タスク重みによって調節された前記シングルタスク損失のL2ノルムである、請求項1に記載のシステム。
- 前記勾配損失関数は、L1損失関数である、請求項1に記載のシステム。
- 前記ハードウェアプロセッサは、前記複数のタスクの前記勾配ノルムの平均を前記平均勾配ノルムとして決定するための前記実行可能命令によってさらにプログラムされている、請求項1に記載のシステム。
- 前記対応する標的勾配ノルムは、(a)前記複数のタスクの平均勾配ノルムと、(b)前記タスクに関する相対的訓練レートの逆数と、(c)ハイパーパラメータとに基づいて決定される、請求項1に記載のシステム。
- 前記ハードウェアプロセッサは、前記タスクに関する前記相対的訓練レートの逆数の前記ハイパーパラメータの累乗によって乗算された前記複数のタスクの前記平均勾配ノルムを前記対応する標的勾配ノルムとして決定するための前記実行可能命令によってさらにプログラムされている、請求項9に記載のシステム。
- 前記タスクに関する前記シングルタスク損失に基づいて前記タスクに関する前記相対的訓練レートを決定するために、前記ハードウェアプロセッサは、前記タスクに関する前記シングルタスク損失と前記タスクに関する別のシングルタスク損失との損失比率に基づいて、前記タスクに関する前記相対的訓練レートの前記逆数を決定するための前記実行可能命令によってさらにプログラムされている、請求項9に記載のシステム。
- 前記タスクに関する前記相対的レートの前記逆数を決定するために、前記ハードウェアプロセッサは、前記タスクの前記損失比率と前記複数のタスクの損失比率の平均との比率を前記相対的訓練レートの前記逆数として決定するための前記実行可能命令によってさらにプログラムされている、請求項11に記載のシステム。
- 前記勾配損失関数の前記勾配を決定するために、前記ハードウェアプロセッサは、前記タスクに関する前記標的勾配ノルムを一定に保ちながら、前記複数のタスクの各タスクに関する前記タスク重みに対する前記勾配損失関数の前記勾配を決定するための前記実行可能命令によってさらにプログラムされている、請求項1に記載のシステム。
- 前記ハードウェアプロセッサは、前記複数のタスクに関する前記更新された重みを正規化するための前記実行可能命令によってさらにプログラムされている、請求項1に記載のシステム。
- 前記複数のタスクに関する前記更新された重みを正規化するために、前記ハードウェアプロセッサは、前記複数のタスクに関する前記更新された重みを前記複数のタスクの数に対して正規化するための前記実行可能命令によってさらにプログラムされている、請求項14に記載のシステム。
- 前記複数のタスクは、回帰タスク、分類タスク、またはそれらの組み合わせを含む、請求項1に記載のシステム。
- 前記分類タスクは、知覚、顔認識、視覚的検索、ジェスチャ認識、意味的分割、オブジェクト検出、部屋レイアウト推定、直方体検出、照明検出、同時位置特定およびマッピング、再位置特定、発話処理、発話認識、自然言語処理、またはそれらの組み合わせを含む、請求項16に記載のシステム。
- 前記マルチタスクネットワークは、複数の共有層と、複数のタスク特定のフィルタを備えている出力層とを備えている、請求項1に記載のシステム。
- 前記マルチタスクネットワークの出力層は、アフィン変換層を備えている、請求項18に記載のシステム。
- マルチタスクネットワークを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
複数の訓練データのうちの訓練データを受信することであって、前記複数の訓練データの各々は、前記複数のタスクに関する複数の基準タスク出力に関連付けられている、ことと、
前記複数のタスクの各タスクに関して、
前記マルチタスクネットワークの複数のネットワーク重みに対する前記タスクに関するタスク重みによって調節されたシングルタスク損失の勾配ノルムを決定することであって、前記シングルタスク損失は、(1)前記訓練データを入力として用い、マルチタスクネットワークを使用して決定された前記タスクに関するタスク出力のシングルタスク損失と、(2)前記訓練データに関連付けられた前記タスクに関する対応する基準タスク出力のシングルタスク損失とである、ことと、
前記タスクに関する前記シングルタスク損失に基づいて前記タスクに関する相対的訓練レートを決定することと
を行うことと、
(1)各タスクに関する前記決定された勾配ノルムと、(2)対応する標的勾配ノルムとの間の差異を含む勾配損失関数を決定することであって、前記対応する標的勾配ノルムは、(a)前記複数のタスクの平均勾配ノルムと、(b)前記タスクに関する前記相対的訓練レートとに基づいて決定される、ことと、
前記タスク重みに対する勾配損失関数の勾配を使用して、前記複数のタスクの各々に関する更新されたタスク重みを決定することと
を含む、方法。 - 前記対応する標的勾配ノルムは、(a)前記複数のタスクの平均勾配ノルムと、(b)前記タスクに関する前記相対的訓練レートと、(c)ハイパーパラメータとに基づいて決定される、請求項20に記載の方法。
- 前記複数のタスクの各タスクに関するタスク重みに対する前記勾配損失関数の前記勾配を決定することをさらに含む、請求項20に記載の方法。
- 前記複数の訓練データは、複数の訓練画像を備え、前記複数のタスクは、コンピュータビジョンタスクを備えている、請求項20に記載の方法。
- 頭部搭載型ディスプレイシステムであって、前記システムは、
非一過性メモリであって、前記非一過性メモリは、
実行可能命令と、
複数のタスクに関連付けられた出力を決定するためのマルチタスクネットワークと
を記憶するように構成され、
前記マルチタスクネットワークは、
シングルタスク損失の勾配ノルムであって、前記シングルタスク損失の勾配ノルムは、
(1)前記訓練画像を入力として用いて、マルチタスクネットワークを使用して決定された前記複数のタスクのうちのタスクに関するタスク出力のシングルタスク損失の勾配ノルムと、(2)前記マルチタスクネットワークの複数のネットワーク重みに対する前記タスクに関するタスク重みによって調節された前記訓練画像に関連付けられた前記タスクに関する対応する基準タスク出力のシングルタスク損失の勾配ノルムとである、シングルタスク損失の勾配ノルムと、
前記タスクに関するシングルタスク損失に基づいて決定された前記タスクに関する相対的訓練レートと、
勾配損失関数であって、前記勾配損失関数は、
(1)前記タスクに関する前記決定された勾配ノルムと、(2)対応する標的勾配ノルムとの間の差異を含み、前記対応する標的勾配ノルムは、(a)前記複数のタスクの平均勾配ノルムと、(b)前記タスクに関する前記相対的訓練レートと、(c)ハイパーパラメータとに基づいて決定される、勾配損失関数と、
前記タスクに関する前記タスク重みに対する前記勾配損失関数の勾配を使用した前記タスクに関する更新されたタスク重みと
を使用して訓練される、非一過性メモリと、
ディスプレイと、
センサと、
前記非一過性メモリおよび前記ディスプレイと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記センサによって捕捉されたセンサデータを受信することと、
前記センサデータを入力として用い、前記マルチタスクネットワークを使用して、前記複数のタスクの各タスクに関するタスク出力を決定することと、
前記決定されたタスク出力に関連する情報を拡張現実デバイスのユーザに示すことを前記ディスプレイに行わせることと
を行うための前記実行可能命令によってプログラムされている、システム。 - 前記複数のタスクは、複数の知覚タスクを備えている、請求項24に記載のシステム。
- 前記複数の知覚タスクは、記顔認識、視覚的検索、ジェスチャ識別、意味的分割、オブジェクト検出、照明検出、同時位置特定およびマッピング、再位置特定、またはそれらの組み合わせを備えている、請求項25に記載のシステム。
- 前記センサは、慣性測定ユニット、外向きに面したカメラ、深度感知カメラ、マイクロホン、眼結像カメラ、またはそれらの組み合わせを備えている、請求項24に記載のシステム。
- 複数のタスクに関連付けられた出力を決定するためのマルチタスクニューラルネットワークを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
前記複数のタスクに関する複数の基準タスク出力に関連付けられた訓練サンプルセットを受信することと、
少なくとも部分的にシングルタスク損失関数の重み付けされた組み合わせに基づいて、マルチタスク損失関数を計算することであって、前記重み付けされたマルチタスク損失関数における重みは、各訓練ステップにおいて変動可能である、ことと、
前記複数のタスクの各タスクが同様のレートで訓練されるように、前記訓練中、前記シングルタスク損失関数の各々に関する前記重みを決定することと、
少なくとも部分的に前記訓練に基づいて、訓練されたマルチタスクニューラルネットワークを出力することと
を含む、方法。 - 前記タスクは、コンピュータビジョンタスク、発話認識タスク、自然言語処理タスク、または医療診断タスクを備えている、請求項28に記載の方法。
- 前記マルチタスク損失関数は、前記重みと前記シングルタスク損失関数との線形組み合わせである、請求項28に記載の方法。
- 前記シングルタスク損失関数の各々に関する前記重みを決定することは、前記複数のタスクのうちの第1のタスクからの逆伝搬勾配が前記複数のタスクのうちの第2のタスクからの逆伝搬勾配と実質的に異なるとき、前記マルチタスクニューラルネットワークにペナルティを科すことを含む、請求項28に記載の方法。
- 前記シングルタスク損失関数の各々に関する前記重みを決定することは、前記複数のタスクのうちの第1のタスクに関する第1の訓練レートが、前記複数のタスクのうちの第2のタスクに関する第2の訓練レートを超えるとき、前記第2のタスクに関する第2の重みに対して、前記第1のタスクに関する第1の重みを減少させることを含む、請求項28に記載の方法。
- 前記シングルタスク損失関数の各々に関する前記重みを決定することは、
訓練時間における前記重みに対する前記複数のタスクの各タスクに関する重み付けされたシングルタスク損失関数の勾配ノルムを評価することと、
前記訓練時間における全てのタスクに対する平均勾配ノルムを評価することと、
前記複数のタスクの各タスクに関する相対的逆数訓練レートを計算することと、
少なくとも部分的に前記重み付けされたシングルタスク損失関数の各々に関する前記勾配ノルムと、前記相対的逆数訓練レートの関数によって乗算された平均勾配ノルムとの間の差異に基づいて、勾配損失関数を計算することと
を含む、請求項28に記載の方法。 - 前記勾配損失関数は、L1損失関数を備えている、請求項34に記載の方法。
- 前記相対的逆数訓練レートの関数は、べき法則関数を備えている、請求項34に記載の方法。
- 前記べき法則関数は、−1〜3の範囲内のべき法則指数を有する、請求項34に記載の方法。
- 前記べき法則関数は、前記訓練中、変動するべき法則指数を有する、請求項34に記載の方法。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762577705P | 2017-10-26 | 2017-10-26 | |
US62/577,705 | 2017-10-26 | ||
US201762599693P | 2017-12-16 | 2017-12-16 | |
US62/599,693 | 2017-12-16 | ||
US201862628266P | 2018-02-08 | 2018-02-08 | |
US62/628,266 | 2018-02-08 | ||
US201862695356P | 2018-07-09 | 2018-07-09 | |
US62/695,356 | 2018-07-09 | ||
PCT/US2018/057382 WO2019084189A1 (en) | 2017-10-26 | 2018-10-24 | SYSTEMS AND METHODS FOR GRADIENT NORMALIZATION FOR ADAPTIVE LOSS BALANCING IN DEEP MULTITASK NETWORKS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021501391A true JP2021501391A (ja) | 2021-01-14 |
JP7181928B2 JP7181928B2 (ja) | 2022-12-01 |
Family
ID=66243069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520481A Active JP7181928B2 (ja) | 2017-10-26 | 2018-10-24 | 深層マルチタスクネットワークにおける適応的損失平衡のための勾配正規化システムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11537895B2 (ja) |
EP (1) | EP3704592A4 (ja) |
JP (1) | JP7181928B2 (ja) |
KR (1) | KR102602117B1 (ja) |
CN (1) | CN111373419A (ja) |
AU (1) | AU2018354257A1 (ja) |
CA (1) | CA3078530A1 (ja) |
IL (1) | IL273991B2 (ja) |
WO (1) | WO2019084189A1 (ja) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017230184B2 (en) | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
IL273991B2 (en) | 2017-10-26 | 2023-11-01 | Magic Leap Inc | Gradual normalization systems and methods for adaptive loss balancing in deep multitasking networks |
AU2018368279A1 (en) * | 2017-11-14 | 2020-05-14 | Magic Leap, Inc. | Meta-learning for multi-task learning for neural networks |
US11810202B1 (en) | 2018-10-17 | 2023-11-07 | State Farm Mutual Automobile Insurance Company | Method and system for identifying conditions of features represented in a virtual model |
US11481611B2 (en) * | 2018-11-02 | 2022-10-25 | International Business Machines Corporation | RRAM crossbar array structure for multi-task learning |
US11250838B2 (en) * | 2018-11-16 | 2022-02-15 | Deepmind Technologies Limited | Cross-modal sequence distillation |
CN109858524B (zh) * | 2019-01-04 | 2020-10-16 | 北京达佳互联信息技术有限公司 | 手势识别方法、装置、电子设备及存储介质 |
US10873724B1 (en) | 2019-01-08 | 2020-12-22 | State Farm Mutual Automobile Insurance Company | Virtual environment generation for collaborative building assessment |
US20200226451A1 (en) * | 2019-01-11 | 2020-07-16 | Samsung Electronics Co., Ltd. | Method and apparatus with neural network layer contraction |
US11610414B1 (en) * | 2019-03-04 | 2023-03-21 | Apple Inc. | Temporal and geometric consistency in physical setting understanding |
US11049072B1 (en) | 2019-04-26 | 2021-06-29 | State Farm Mutual Automobile Insurance Company | Asynchronous virtual collaboration environments |
US11032328B1 (en) | 2019-04-29 | 2021-06-08 | State Farm Mutual Automobile Insurance Company | Asymmetric collaborative virtual environments |
EP3973468A4 (en) * | 2019-05-21 | 2022-09-14 | Magic Leap, Inc. | HANDPOSITION ESTIMATING |
CN110147771B (zh) * | 2019-05-23 | 2020-01-14 | 南京农业大学 | 基于母猪关键部位与环境联合分区的母猪侧卧姿态实时检测系统 |
JP7208528B2 (ja) * | 2019-05-23 | 2023-01-19 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN110361176B (zh) * | 2019-06-05 | 2021-11-19 | 华南理工大学 | 一种基于多任务特征共享神经网络的智能故障诊断方法 |
CN110298291B (zh) * | 2019-06-25 | 2022-09-23 | 吉林大学 | 基于Mask-RCNN的牛脸及牛脸关键点检测方法 |
JP2021015425A (ja) * | 2019-07-11 | 2021-02-12 | 富士通株式会社 | 学習方法、学習プログラム及び学習装置 |
CN112560541A (zh) * | 2019-09-10 | 2021-03-26 | 富士通株式会社 | 目标检测模型的训练装置及方法、电子设备 |
US11593673B2 (en) | 2019-10-07 | 2023-02-28 | Servicenow Canada Inc. | Systems and methods for identifying influential training data points |
US11450150B2 (en) * | 2019-10-28 | 2022-09-20 | Microsoft Technology Licensing, Llc | Signature verification |
CN111062484B (zh) * | 2019-11-19 | 2023-06-09 | 鼎富智能科技有限公司 | 基于多任务学习的数据集选取方法及装置 |
CN112734798B (zh) * | 2019-11-27 | 2023-11-07 | 上海联影智能医疗科技有限公司 | 神经网络的在线自适应系统和方法 |
CN110929794B (zh) * | 2019-11-28 | 2022-12-13 | 哈尔滨工程大学 | 一种基于多任务学习的侧扫声呐图像分类方法 |
CN111160268B (zh) * | 2019-12-30 | 2024-03-29 | 北京化工大学 | 一种基于多任务学习的多角度sar目标识别方法 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN111241279B (zh) * | 2020-01-07 | 2020-10-30 | 华东师范大学 | 一种基于多任务学习机制的自然语言关系抽取方法 |
EP4115145A4 (en) | 2020-03-05 | 2023-08-02 | Magic Leap, Inc. | SYSTEMS AND METHODS FOR DEPTH ESTIMATION BY LEARNING TRIANGULATION AND SPREAD POINT DENSIFICATION FOR MULTIVIEW STEREO |
JP7476600B2 (ja) | 2020-03-24 | 2024-05-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及びコンピュータプログラム |
TWI723823B (zh) * | 2020-03-30 | 2021-04-01 | 聚晶半導體股份有限公司 | 基於神經網路的物件偵測裝置和物件偵測方法 |
CN111428689B (zh) * | 2020-04-20 | 2022-07-01 | 重庆邮电大学 | 一种多池化信息融合的人脸图像特征提取方法 |
CN113628124B (zh) * | 2020-05-08 | 2024-01-16 | 深圳清华大学研究院 | Isp与视觉任务联合优化方法、系统、介质和电子设备 |
US11475304B2 (en) | 2020-05-12 | 2022-10-18 | International Business Machines Corporation | Variational gradient flow |
US11755951B2 (en) * | 2020-05-15 | 2023-09-12 | Vmware, Inc. | Machine learning with an intelligent continuous learning service in a big data environment |
KR20210150233A (ko) * | 2020-06-03 | 2021-12-10 | 삼성전자주식회사 | 이미지 처리 알고리즘의 최적화 방법 및 이를 구비한 전자 장치 |
US11514326B2 (en) * | 2020-06-18 | 2022-11-29 | International Business Machines Corporation | Drift regularization to counteract variation in drift coefficients for analog accelerators |
CN111657926B (zh) * | 2020-07-08 | 2021-04-23 | 中国科学技术大学 | 一种基于多导联信息融合的心律失常分类方法 |
CN111862116A (zh) * | 2020-07-15 | 2020-10-30 | 完美世界(北京)软件科技发展有限公司 | 动漫人像的生成方法及装置、存储介质、计算机设备 |
CN115917535A (zh) * | 2020-07-24 | 2023-04-04 | 华为技术有限公司 | 推荐模型的训练方法、推荐方法、装置及计算机可读介质 |
CN111931929B (zh) * | 2020-07-29 | 2023-06-16 | 深圳地平线机器人科技有限公司 | 一种多任务模型的训练方法、装置及存储介质 |
WO2022039847A1 (en) * | 2020-08-21 | 2022-02-24 | Inari Agriculture Technology, Inc. | Machine learning-based variant effect assessment and uses thereof |
CN112131342A (zh) * | 2020-09-07 | 2020-12-25 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、设备及存储介质 |
CN114170642A (zh) * | 2020-09-09 | 2022-03-11 | 成都鼎桥通信技术有限公司 | 图像检测的处理方法、装置、设备及存储介质 |
CN112116012B (zh) * | 2020-09-23 | 2024-03-19 | 大连海事大学 | 一种基于深度学习的手指静脉即时注册、识别方法及系统 |
CN116057537A (zh) * | 2020-10-02 | 2023-05-02 | 华为技术有限公司 | 多任务模型的变量重要性学习 |
US20220121953A1 (en) | 2020-10-21 | 2022-04-21 | Nec Laboratories America, Inc. | Multi-task learning via gradient split for rich human analysis |
US11868439B2 (en) | 2020-11-13 | 2024-01-09 | Toyota Research Institute, Inc. | Mixed-batch training of a multi-task network |
CN112447188B (zh) * | 2020-11-18 | 2023-10-20 | 中国人民解放军陆军工程大学 | 一种基于改进softmax函数的声学场景分类方法 |
KR102639179B1 (ko) * | 2020-12-31 | 2024-02-20 | 서울과학기술대학교 산학협력단 | 딥러닝 네트워크의 불확실도 판단방법 |
CN113159275A (zh) * | 2021-03-05 | 2021-07-23 | 深圳市商汤科技有限公司 | 网络训练方法、图像处理方法、装置、设备及存储介质 |
CN112949774A (zh) * | 2021-04-13 | 2021-06-11 | Oppo广东移动通信有限公司 | 神经网络模型的训练方法、装置、计算机设备及存储介质 |
CN113221837A (zh) * | 2021-06-01 | 2021-08-06 | 北京金山云网络技术有限公司 | 对象分割方法、对象分割模型的训练方法和装置 |
US20220405634A1 (en) * | 2021-06-16 | 2022-12-22 | Moxa Inc. | Device of Handling Domain-Agnostic Meta-Learning |
CN113469243A (zh) * | 2021-06-30 | 2021-10-01 | 国网浙江宁波市鄞州区供电有限公司 | 一种极端环境下电缆性能的预测方法 |
CN113537115A (zh) * | 2021-07-26 | 2021-10-22 | 东软睿驰汽车技术(沈阳)有限公司 | 驾驶员的驾驶状态获取方法、装置及电子设备 |
WO2023085610A1 (ko) * | 2021-11-11 | 2023-05-19 | 삼성전자 주식회사 | 멀티-태스크 모델의 학습을 수행하는 방법 및 전자 장치 |
TWI795173B (zh) * | 2022-01-17 | 2023-03-01 | 中華電信股份有限公司 | 多語言語音辨識系統、方法及電腦可讀媒介 |
CN114913371A (zh) * | 2022-05-10 | 2022-08-16 | 平安科技(深圳)有限公司 | 多任务学习模型训练方法、装置、电子设备及存储介质 |
CN115049108A (zh) * | 2022-05-20 | 2022-09-13 | 支付宝(杭州)信息技术有限公司 | 多任务模型训练方法、多任务预测方法、相关装置及介质 |
CN115019201B (zh) * | 2022-05-20 | 2024-03-05 | 西北工业大学 | 一种基于特征精细化深度网络的弱小目标检测方法 |
CN116028820B (zh) * | 2023-03-20 | 2023-07-04 | 支付宝(杭州)信息技术有限公司 | 一种模型训练的方法、装置、存储介质及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170147905A1 (en) * | 2015-11-25 | 2017-05-25 | Baidu Usa Llc | Systems and methods for end-to-end object detection |
Family Cites Families (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04262453A (ja) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | ニュ−ロ学習制御方法及び装置 |
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5583795A (en) | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
EP1483909B1 (en) | 2002-03-13 | 2010-04-28 | Imax Corporation | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
KR20050025927A (ko) | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
EP1784988A1 (en) | 2004-08-06 | 2007-05-16 | University of Washington | Variable fixation viewing distance scanned light displays |
US7248720B2 (en) | 2004-10-21 | 2007-07-24 | Retica Systems, Inc. | Method and system for generating a combined retina/iris pattern biometric |
US20070052672A1 (en) | 2005-09-08 | 2007-03-08 | Swisscom Mobile Ag | Communication device, system and method |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US7756313B2 (en) * | 2005-11-14 | 2010-07-13 | Siemens Medical Solutions Usa, Inc. | System and method for computer aided detection via asymmetric cascade of sparse linear classifiers |
JP4824420B2 (ja) | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
US7970179B2 (en) | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
US8363783B2 (en) | 2007-06-04 | 2013-01-29 | Oraya Therapeutics, Inc. | Method and device for ocular alignment and coupling of ocular structures |
JP5088024B2 (ja) | 2007-07-11 | 2012-12-05 | 沖電気工業株式会社 | 試供品配布システム、試供品配布情報サーバ、試供品配布方法及び試供品配布情報処理プログラム |
US20090129591A1 (en) | 2007-11-21 | 2009-05-21 | Hayes Gregory A | Techniques for Securing Document Content in Print and Electronic Form |
US8064653B2 (en) | 2007-11-29 | 2011-11-22 | Viewdle, Inc. | Method and system of person identification by facial image |
US8098891B2 (en) | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
US8411910B2 (en) | 2008-04-17 | 2013-04-02 | Biometricore, Inc. | Computationally efficient feature extraction and matching iris recognition |
EP2257636A4 (en) | 2008-07-03 | 2014-10-15 | Nec Lab America Inc | EPITHELIAL LAYER DETECTOR AND RELATED METHODS |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
US8768014B2 (en) | 2009-01-14 | 2014-07-01 | Indiana University Research And Technology Corp. | System and method for identifying a person with reference to a sclera image |
US8374404B2 (en) | 2009-02-13 | 2013-02-12 | Raytheon Company | Iris recognition using hyper-spectral signatures |
US20100232654A1 (en) | 2009-03-11 | 2010-09-16 | Harris Corporation | Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections |
US8340945B2 (en) * | 2009-08-24 | 2012-12-25 | International Business Machines Corporation | Method for joint modeling of mean and dispersion |
CN102811684B (zh) | 2010-01-22 | 2015-09-09 | 眼科医疗公司 | 用于自动放置扫描激光撕囊切口的装置 |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US9691289B2 (en) | 2010-12-22 | 2017-06-27 | Brightstar Learning | Monotonous game-like task to promote effortless automatic recognition of sight words |
AU2011348122A1 (en) | 2010-12-24 | 2013-07-11 | Magic Leap Inc. | An ergonomic head mounted display device and optical system |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
RU2621644C2 (ru) | 2011-05-06 | 2017-06-06 | Мэджик Лип, Инк. | Мир массового одновременного удаленного цифрового присутствия |
US9104186B2 (en) * | 2012-06-04 | 2015-08-11 | Brain Corporation | Stochastic apparatus and methods for implementing generalized learning rules |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130159939A1 (en) | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
WO2013085639A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
CA2858208C (en) | 2011-11-23 | 2019-01-15 | Magic Leap, Inc. | Three dimensional virtual and augmented reality display system |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
WO2013188464A1 (en) | 2012-06-11 | 2013-12-19 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9141916B1 (en) | 2012-06-29 | 2015-09-22 | Google Inc. | Using embedding functions with a deep network |
WO2014021169A1 (ja) | 2012-07-31 | 2014-02-06 | 独立行政法人科学技術振興機構 | 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体 |
US8369595B1 (en) | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
WO2014043196A1 (en) | 2012-09-11 | 2014-03-20 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP2014092940A (ja) | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
EP2929487A4 (en) | 2012-12-10 | 2016-08-10 | Stanford Res Inst Int | BIOMETRIC IRIS ADJUSTMENT SYSTEM |
KR102507206B1 (ko) | 2013-01-15 | 2023-03-06 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
KR102516124B1 (ko) | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9147154B2 (en) | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
NZ751593A (en) | 2013-03-15 | 2020-01-31 | Magic Leap Inc | Display system and method |
WO2014182769A1 (en) | 2013-05-07 | 2014-11-13 | The Johns Hopkins University | Automated and non-mydriatic fundus-perimetry camera for irreversible eye diseases |
US9275308B2 (en) | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US20140380249A1 (en) | 2013-06-25 | 2014-12-25 | Apple Inc. | Visual recognition of gestures |
CN103431840B (zh) | 2013-07-31 | 2016-01-20 | 北京智谷睿拓技术服务有限公司 | 眼睛光学参数检测系统及方法 |
US10025982B2 (en) | 2013-10-08 | 2018-07-17 | Princeton Identity, Inc. | Collecting and targeting marketing data and information based upon iris identification |
KR20150041453A (ko) | 2013-10-08 | 2015-04-16 | 엘지전자 주식회사 | 안경형 영상표시장치 및 그것의 제어방법 |
KR102547756B1 (ko) | 2013-10-16 | 2023-06-23 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
US9202144B2 (en) | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
US10095917B2 (en) | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
JP6236296B2 (ja) | 2013-11-14 | 2017-11-22 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
KR102493498B1 (ko) | 2013-11-27 | 2023-01-27 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US9430829B2 (en) | 2014-01-30 | 2016-08-30 | Case Western Reserve University | Automatic detection of mitosis using handcrafted and convolutional neural network features |
KR102177133B1 (ko) | 2014-01-31 | 2020-11-10 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
EP4099274B1 (en) | 2014-01-31 | 2024-03-06 | Magic Leap, Inc. | Multi-focal display system and method |
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
IL231862A (en) | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
WO2015161307A1 (en) | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015164807A1 (en) | 2014-04-25 | 2015-10-29 | Texas State University | Detection of brain injury and subject state with eye movement biometrics |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
AU2015266586B2 (en) | 2014-05-30 | 2020-07-23 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
US9330329B2 (en) | 2014-07-09 | 2016-05-03 | Ditto Labs, Inc. | Systems, methods, and devices for image matching and object recognition in images using minimal feature points |
US20170186236A1 (en) | 2014-07-22 | 2017-06-29 | Sony Corporation | Image display device, image display method, and computer program |
US9536293B2 (en) | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
KR102216126B1 (ko) | 2014-07-31 | 2021-02-16 | 삼성전자주식회사 | 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법 |
US20160034811A1 (en) | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
US9659384B2 (en) | 2014-10-03 | 2017-05-23 | EyeEm Mobile GmbH. | Systems, methods, and computer program products for searching and sorting images by aesthetic quality |
EP3204888A4 (en) * | 2014-10-09 | 2017-10-04 | Microsoft Technology Licensing, LLC | Spatial pyramid pooling networks for image processing |
EP3161728B1 (en) | 2014-10-10 | 2023-05-17 | Beijing Kuangshi Technology Co., Ltd. | Hierarchical interlinked multi-scale convolutional network for image parsing |
KR102276339B1 (ko) | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
WO2016106238A1 (en) | 2014-12-24 | 2016-06-30 | Google Inc. | Augmenting neural networks to generate additional outputs |
WO2016145379A1 (en) | 2015-03-12 | 2016-09-15 | William Marsh Rice University | Automated Compilation of Probabilistic Task Description into Executable Neural Network Specification |
US9678664B2 (en) | 2015-04-10 | 2017-06-13 | Google Inc. | Neural network for keyboard input decoding |
EP3295368A1 (en) | 2015-05-13 | 2018-03-21 | Google LLC | Deepstereo: learning to predict new views from real world imagery |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
JP6620439B2 (ja) * | 2015-07-01 | 2019-12-18 | 株式会社リコー | 学習方法、プログラム及び学習装置 |
AU2016310451B2 (en) | 2015-08-21 | 2021-04-22 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
US9767565B2 (en) | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
JP6678930B2 (ja) | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
US20170161506A1 (en) | 2015-12-07 | 2017-06-08 | Dell Products L.P. | Information Handling System Encrypted Image Display Through Secondary Device |
US20170236057A1 (en) * | 2016-02-16 | 2017-08-17 | Carnegie Mellon University, A Pennsylvania Non-Profit Corporation | System and Method for Face Detection and Landmark Localization |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
AU2017230184B2 (en) | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
WO2017166137A1 (zh) * | 2016-03-30 | 2017-10-05 | 中国科学院自动化研究所 | 基于多任务深度学习的自然图像美感质量评估方法 |
US10423830B2 (en) | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10032067B2 (en) * | 2016-05-28 | 2018-07-24 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
CN109661194B (zh) | 2016-07-14 | 2022-02-25 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
KR102648770B1 (ko) | 2016-07-14 | 2024-03-15 | 매직 립, 인코포레이티드 | 홍채 식별을 위한 딥 뉴럴 네트워크 |
EP3273387B1 (en) * | 2016-07-19 | 2024-05-15 | Siemens Healthineers AG | Medical image segmentation with a multi-task neural network system |
KR102529137B1 (ko) | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
US11200483B2 (en) * | 2016-08-30 | 2021-12-14 | Lunit Inc. | Machine learning method and apparatus based on weakly supervised learning |
US20180075347A1 (en) * | 2016-09-15 | 2018-03-15 | Microsoft Technology Licensing, Llc | Efficient training of neural networks |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
JP6727089B2 (ja) * | 2016-09-30 | 2020-07-22 | 株式会社日立製作所 | マーケティング支援システム |
IL293688B2 (en) | 2016-10-04 | 2024-02-01 | Magic Leap Inc | Efficient data layouts for convolutional neural networks |
US11042796B2 (en) * | 2016-11-03 | 2021-06-22 | Salesforce.Com, Inc. | Training a joint many-task neural network model using successive regularization |
US10621747B2 (en) | 2016-11-15 | 2020-04-14 | Magic Leap, Inc. | Deep learning system for cuboid detection |
US10074038B2 (en) * | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US10360517B2 (en) * | 2017-02-22 | 2019-07-23 | Sas Institute Inc. | Distributed hyperparameter tuning system for machine learning |
US10713794B1 (en) * | 2017-03-16 | 2020-07-14 | Facebook, Inc. | Method and system for using machine-learning for object instance segmentation |
US10657376B2 (en) | 2017-03-17 | 2020-05-19 | Magic Leap, Inc. | Room layout estimation methods and techniques |
US20180349158A1 (en) * | 2017-03-22 | 2018-12-06 | Kevin Swersky | Bayesian optimization techniques and applications |
US11195093B2 (en) * | 2017-05-18 | 2021-12-07 | Samsung Electronics Co., Ltd | Apparatus and method for student-teacher transfer learning network using knowledge bridge |
US10783393B2 (en) * | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Semi-supervised learning for landmark localization |
US10769491B2 (en) * | 2017-09-01 | 2020-09-08 | Sri International | Machine learning system for generating classification data and part localization data for objects depicted in images |
US10762425B2 (en) * | 2017-09-26 | 2020-09-01 | Nvidia Corporation | Learning affinity via a spatial propagation neural network |
IL273991B2 (en) | 2017-10-26 | 2023-11-01 | Magic Leap Inc | Gradual normalization systems and methods for adaptive loss balancing in deep multitasking networks |
-
2018
- 2018-10-24 IL IL273991A patent/IL273991B2/en unknown
- 2018-10-24 WO PCT/US2018/057382 patent/WO2019084189A1/en unknown
- 2018-10-24 US US16/169,840 patent/US11537895B2/en active Active
- 2018-10-24 CN CN201880075649.6A patent/CN111373419A/zh active Pending
- 2018-10-24 KR KR1020207013228A patent/KR102602117B1/ko active IP Right Grant
- 2018-10-24 JP JP2020520481A patent/JP7181928B2/ja active Active
- 2018-10-24 EP EP18871513.0A patent/EP3704592A4/en active Pending
- 2018-10-24 AU AU2018354257A patent/AU2018354257A1/en active Pending
- 2018-10-24 CA CA3078530A patent/CA3078530A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170147905A1 (en) * | 2015-11-25 | 2017-05-25 | Baidu Usa Llc | Systems and methods for end-to-end object detection |
Non-Patent Citations (1)
Title |
---|
ROBERTO CIPOLLA;YARIN GAL;ALEX KENDALL: "Multi-task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022033644, 19 May 2017 (2017-05-19), pages 7482 - 7491, ISSN: 0004848206 * |
Also Published As
Publication number | Publication date |
---|---|
IL273991A (en) | 2020-05-31 |
IL273991B2 (en) | 2023-11-01 |
KR102602117B1 (ko) | 2023-11-13 |
CN111373419A (zh) | 2020-07-03 |
WO2019084189A1 (en) | 2019-05-02 |
EP3704592A1 (en) | 2020-09-09 |
KR20200078531A (ko) | 2020-07-01 |
CA3078530A1 (en) | 2019-05-02 |
JP7181928B2 (ja) | 2022-12-01 |
AU2018354257A1 (en) | 2020-05-14 |
US11537895B2 (en) | 2022-12-27 |
US20190130275A1 (en) | 2019-05-02 |
IL273991B1 (en) | 2023-07-01 |
EP3704592A4 (en) | 2022-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021501391A (ja) | 深層マルチタスクネットワークにおける適応的損失平衡のための勾配正規化システムおよび方法 | |
US11853894B2 (en) | Meta-learning for multi-task learning for neural networks | |
CN112368719A (zh) | 神经网络的梯度对抗性训练 | |
JP2021176109A (ja) | 部屋レイアウト推定方法および技法 | |
US9613298B2 (en) | Tracking using sensor data | |
US11244671B2 (en) | Model training method and apparatus | |
CN108229280A (zh) | 时域动作检测方法和系统、电子设备、计算机存储介质 | |
EP3736745A1 (en) | Model training method and apparatus | |
CN114611720B (zh) | 联邦学习模型训练方法、电子设备及存储介质 | |
WO2021076185A1 (en) | Joint depth prediction from dual-cameras and dual-pixels | |
Oniki et al. | Training data generation based on observation probability density for human pose refinement | |
US20230196651A1 (en) | Method and apparatus with rendering | |
CN111611852A (zh) | 一种表情识别模型的训练方法、装置及设备 | |
Tran et al. | Indoor navigation assistance system for visually impaired with semantic segmentation using edgetpu | |
Štaka et al. | Leaf counting in the presence of occlusion in Arabidopsis thaliana plant using convolutional neural networks | |
WO2022188086A1 (en) | Systems and methods for training models to predict dense correspondences in images using geodesic distances | |
EP4191526A1 (en) | Apparatus and method with object posture estimating | |
Holmberg | Targeting the zebrafish eye using deep learning-based image segmentation | |
Ambika et al. | Optimal Deep Convolutional Neural Network Based Face Detection and Emotion Recognition Model | |
Nguyen | Machine Learning: developing an image recognition program: with Python, Scikit Learn and OpenCV | |
Yin et al. | Exploring the path of environmental visual design based on the perspective of new media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181928 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |