JP7494316B2 - ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 - Google Patents

ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 Download PDF

Info

Publication number
JP7494316B2
JP7494316B2 JP2022560500A JP2022560500A JP7494316B2 JP 7494316 B2 JP7494316 B2 JP 7494316B2 JP 2022560500 A JP2022560500 A JP 2022560500A JP 2022560500 A JP2022560500 A JP 2022560500A JP 7494316 B2 JP7494316 B2 JP 7494316B2
Authority
JP
Japan
Prior art keywords
neural network
data item
parameters
online
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022560500A
Other languages
English (en)
Other versions
JP2023527510A (ja
Inventor
ジャン-バスティアン・フランソワ・ローラン・グリル
フロリアン・ストルブ
フロラン・アルチェ
コランタン・タレク
ピエール・リシュモン
ベルナルド・アヴィラ・ピレス
ジャオハン・グオ
モハマド・ゲシラギ・アザール
ビラル・ピオット
レミ・ムニョス
ミシャル・ヴァルコ
Original Assignee
ディープマインド テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディープマインド テクノロジーズ リミテッド filed Critical ディープマインド テクノロジーズ リミテッド
Publication of JP2023527510A publication Critical patent/JP2023527510A/ja
Priority to JP2024082493A priority Critical patent/JP2024110969A/ja
Application granted granted Critical
Publication of JP7494316B2 publication Critical patent/JP7494316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

関連出願の相互参照
本出願は、2020年6月5に出願された米国仮特許出願第63/035,583号、および2020年6月15日に出願された米国仮特許出願第63/039,343号に対する優先権を主張するものである。先願の開示は、本出願の開示の一部と見なされ、参照によって本開示に組み込まれている。
本明細書は、機械学習モデルを使用する画像処理に関する。
ニューラルネットワークは、非線形ユニットの1つまたは複数の層を利用して、受信した入力についての出力を予測する機械学習モデルである。いくつかのニューラルネットワークは、出力層に加えて1つまたは複数の隠れ層を含む。各隠れ層の出力は、ネットワーク内の次の層、すなわち、次の隠れ層または出力層に入力として使用される。ネットワークの各層は、それぞれのパラメータセットの現在の値に従って、受信した入力から出力を生成する。
Heら、arXiv:1512.03385 IoffeおよびSzegedy、arXiv:1502.03167 Madryら、arXiv:1706.06083 Russakovskyら、arXiv:1409.0575
本明細書では、自己教師付き学習方法により、画像などのデータ項目表現を学習するように構成されている1つまたは複数の場所内の1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されるシステムについて説明する。
本開示の第1の態様は、ニューラルネットワークを訓練するコンピュータ実装方法を提供する。この方法は、ターゲットニューラルネットワークを用いて訓練データ項目(training data item)、たとえば画像の第1の変換されたビューを処理して、ターゲット出力を生成するステップと、オンラインニューラルネットワークを用いて訓練データ項目、たとえば画像の第2の変換されたビューを処理して、ターゲット出力の予測を生成するステップと、ターゲット出力の予測とターゲット出力との間の誤差を最小化するために、オンラインニューラルネットワークのパラメータを更新するステップと、オンラインニューラルネットワークのパラメータに基づいてターゲットニューラルネットワークのパラメータを更新するステップとを含む。
「変換されたビュー(transformed view)」という用語は、訓練データ項目、たとえば画像の変換されたバージョンを示し、変換を受けた後、たとえば画像変換を受けた後の訓練データ項目と(変換されていない)訓練データ項目とを区別するのに使用される。
ニューラルネットワークのパラメータは、ニューラルネットワークの重みを含むことがあり、ニューラルネットワークのパラメータを更新するステップは、重みの値を調整するステップを含み得る。
ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップは、オンラインニューラルネットワークのパラメータの移動平均を用いて、ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップを含み得る。移動平均は、指数移動平均であってもよい。
ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップは、ξ←τξ+(1-τ)θに従ってターゲットニューラルネットワークの1つまたは複数のパラメータの更新された値を決定するステップを含み得、式中、ξは、ターゲットニューラルネットワークのパラメータを表し、θは、オンラインニューラルネットワークのパラメータを表し、τは、減衰率(decay rate)である。減衰率は、ゼロから1の間の値であってよい。
オンラインニューラルネットワークおよびターゲットニューラルネットワークはそれぞれ、それぞれのエンコーダニューラルネットワークを含み得る。したがって、方法は、各エンコーダニューラルネットワークによって、訓練データ項目、たとえば画像の変換されたビューを受信することと、訓練データ項目、たとえば画像の変換されたビューを処理して、訓練データ項目の表現を生成することとを含む動作を行うステップをさらに含み得る。
オプションで、各エンコーダニューラルネットワークは、残差ニューラルネットワーク、ネットワーク、すなわち、ニューラルネットワークの1つまたは複数の層の周りに1つまたは複数の残差接続もしくはスキップ接続を用いたニューラルネットワークを含み得る。
オンラインニューラルネットワークが訓練済みであるとき、オンラインニューラルネットワークのエンコーダニューラルネットワークは、任意の適切な入力データ項目の表現、たとえば入力画像の表現(ピクセル)を生成するのに使用されることがある。このようにして生成された画像表現は、他のダウンストリームタスクによって使用されてもよい。
たとえば、画像分類動作は、画像表現に関して行われることがある。別の例として、画像セグメンテーション動作は、画像表現に関して行われることがある。他の画像処理タスクが、代替としてまたは追加として行われてもよい。
オンラインニューラルネットワークおよびターゲットニューラルネットワークはそれぞれ、それぞれの投影ニューラルネットワークを含み得る。方法は、各投影ニューラルネットワークによって、訓練データ項目、たとえば画像の表現を受信することと、訓練データ項目、たとえば画像の表現を処理して、表現の次元を低減させることとを含む動作を行うステップをさらに含み得る。オプションで、各投影ニューラルネットワークは、多層パーセプトロンを含んでもよい。
投影ニューラルネットワークの使用は、オンラインニューラルネットワークが、(表現の投影を予測するのではなく)ターゲットニューラルネットワークによって生成される訓練データ項目、たとえば画像の表現を直接予測することができるので、オプションである。しかしながら、投影ニューラルネットワークを使用すると、性能の向上がもたらされる可能性がある。
オンラインニューラルネットワークは、予測ニューラルネットワークを含み得る。方法は、予測ニューラルネットワークによって、訓練データ項目、たとえば画像の表現を受信することと、予測ニューラルネットワークのパラメータによって具現化される回帰モデルを使用して訓練データ項目の表現を処理して、ターゲット出力の予測を生成することと含む動作を行うステップをさらに含み得る。オプションで、予測ニューラルネットワークは、多層パーセプトロンを含んでもよい。予測ニューラルネットワークの使用は、必須ではないが、訓練の安定性の向上に役立つ可能性がある。諸実装形態においては、ターゲットニューラルネットワークは、予測ニューラルネットワークを含まない。
そのため、諸実装形態においては、オンラインニューラルネットワークおよびターゲットニューラルネットワークは、同じニューラルネットワークアーキテクチャを有し得るが、ニューラルネットワークのうちの一方、具体的には、オンラインニューラルネットワークにおける1つまたは複数の追加的処理段階を除いて、異なるパラメータ値を有し得る。
ターゲットニューラルネットワークは、勾配停止(stop gradient)(「sg」)を有し得る。勾配停止は、ターゲットニューラルネットワークへの逆伝搬を防止し、それにより、ターゲットニューラルネットワークのパラメータは、誤差が最小限に抑えられているとき、更新されない。
方法は、オンラインニューラルネットワークおよび/またはターゲットニューラルネットワークのパラメータをランダム値に初期化するステップをさらに含み得る。
方法は、第1のデータ項目変換、たとえば画像変換を訓練データ項目、たとえば画像に適用して、訓練データ項目の第1の変換されたビューを生成するステップと、第2のデータ項目変換、たとえば画像変換を訓練データ項目に適用して、訓練データ項目、たとえば画像の第2の変換されたビューを生成するステップとをさらに含み得る。第2のデータ項目変換、たとえば画像変換は、第1のデータ項目変換、たとえば画像変換とは異なる。
訓練データ項目が訓練画像を含む場合、第1の画像変換および第2の画像変換は、次の、すなわち、ランダムクロッピング;水平軸および/もしくは垂直軸に沿った反転;カラージッタリング;グレースケールへの置換え、ガウスぼかし;またはソラリゼーションのうちのいずれか1つまたは複数のいずれかの組合せを含んでもよい。代替としてまたは追加として、他の画像変換が使用されてもよい。訓練画像の変換されたビューを使用することによって、オンラインニューラルネットワークは、同じ訓練画像の別の変換されたビューのターゲットネットワークの表現に基づいて学習する。
本開示は、訓練データ項目、たとえば画像の2つの異なる変換されたビューがオンラインニューラルネットワークおよびターゲットニューラルネットワークに入力される例に焦点を当てているが、他の例では、訓練データ項目、たとえば画像の変換されたビューは、オンラインニューラルネットワークおよびターゲットニューラルネットワークのうちの一方にのみ入力されることがある。これらの例においては、元の(変換されていない)訓練データ項目、たとえば画像は、オンラインニューラルネットワークおよびターゲットニューラルネットワークの他方に入力される。
オンラインニューラルネットワークの1つまたは複数のパラメータを更新するステップには、機械学習オプティマイザを使用して、たとえば確率的勾配降下に基づいて、上述した誤差を最小化するステップが含まれることがある。オンラインニューラルネットワークの1つまたは複数のパラメータを更新するステップは、ターゲット出力の予測を正規化するステップ、およびターゲット出力の正規化された予測とターゲット出力との間の二乗誤差を最小化するステップを含み得る。
ターゲットニューラルネットワークを用いて訓練データ項目の第1の変換されたビューを処理する動作、オンラインニューラルネットワークを用いて訓練データ項目の第2の変換されたビューを処理する動作、オンラインニューラルネットワークの1つまたは複数のパラメータを更新する動作、およびターゲットニューラルネットワークの1つまたは複数のパラメータを更新する動作は、複数の訓練データ項目を含むバッチ内の各訓練データ項目について反復的に行ってもよい。オンラインニューラルネットワークおよびターゲットニューラルネットワークのパラメータは、バッチ内の各訓練データ項目が処理された後に更新されてもよい。
本開示のさらなる態様は、データ項目を処理する、たとえば画像を処理するコンピュータ実装方法を提供する。この方法は、入力データ項目、たとえば画像をオンラインニューラルネットワーク、すなわち訓練されたオンラインニューラルネットワークの一部に提供するステップであって、オンラインニューラルネットワークが、本開示に従って訓練済みである、ステップと、オンラインニューラルネットワーク、すなわち訓練されたオンラインニューラルネットワークの一部を使用して、入力データ項目、たとえば画像を処理するステップと、オンラインニューラルネットワークから、すなわち訓練されたオンラインニューラルネットワークの一部から入力データ項目、たとえば画像の表現を出力するステップと、入力データ項目、たとえば画像の表現を処理するステップとを含む。
オンラインニューラルネットワークは、入力データ項目、たとえば画像の表現を生成するように構成されている残差ニューラルネットワークを含み得る。
入力データ項目が画像を含む場合、入力画像の表現を処理するステップは、入力画像の表現を使用して、入力画像を分類するステップを含み得る。また、またはそうではなく、入力画像の表現を処理するステップは、入力画像の表現を使用して、入力画像をセグメント化するステップを含んでもよい。また、またはそうではなく、他の画像処理タスクが行われてもよい。
本開示のさらなる態様は、1つまたは複数のコンピュータと、1つまたは複数のコンピュータによって実行されると、1つまたは複数のコンピュータに、本明細書に開示される方法のうちのいずれかを行わせる命令を記憶する1つまたは複数のストレージデバイスとを備えるシステムを提供する。
本開示のさらなる態様は、1つまたは複数のコンピュータによって実行されると、1つまたは複数のコンピュータに、本明細書に開示される方法のうちのいずれかを行わせる命令を記憶する1つまたは複数のコンピュータストレージ媒体を提供する。
本明細書に説明する主題は、次の利点のうちの1つまたは複数を実現するように、特定の実施形態において実装され得る。
オンラインニューラルネットワークは、自己教師付き学習方法によって訓練され、それによって、オンラインニューラルネットワークは、生のラベル付けされていない訓練データから画像を表現することを学習する。対照損失関数を使用する自己教師付き学習への手法とは異なって、本明細書に開示される技法は、訓練例、たとえば画像の負のペア(つまり、異なる訓練例、たとえば画像のペア)の必要性がない。これにより、ひいては、バッチサイズが大きいことの必要性、訓練データセット内のサンプルの表現からなるメモリバンク、および負のペアを慎重に選択する必要性など、負のペアの使用に関連する課題を避けることができる。それにもかかわらず、たとえば、画像分類タスクに適用されるとき、本明細書に開示されるように訓練されるオンラインニューラルネットワークによって生成される画像表現は、ラベル付きの例を使用する訓練と同等である、およびいくつかの対照法よりも優れている分類精度を達成することが見出されている。
本明細書に開示される技法により、いくつかの方法のコンピュータ計算要件が高いことも回避され、したがって、本明細書に開示される技法は、コンピュータ計算上、効率的である。
オンラインニューラルネットワークおよびターゲットニューラルへの入力は、たとえばビデオ画像データを含む、たとえば任意の適切なタイプの画像データを含み得る。画像データは、カラーまたはモノクロのピクセル値データを含んでもよい。そのような画像データは、カメラまたはLIDARセンサなどの画像センサから取り込まれてもよい。
本明細書に開示されるオンラインニューラルネットワークによって生成される画像表現は、幅広い種類の画像処理タスクに使用され得る。たとえば、画像表現は、画像分類に使用されてもよく、それによって、分類システムは、所与の入力画像表現について1つまたは複数のクラスラベルを出力する。この例を続けると、分類システムは、画像表現を処理してもよく、オブジェクトカテゴリのセットのそれぞれについてスコアを出力してもよく、各スコアは、画像がカテゴリに属しているオブジェクトを含んでいる推定された可能性を表す。
画像処理タスクの別の例として、画像表現は、画像セグメンテーションに使用されてもよく、それによって、セグメンテーションシステムが、画像表現を使用して、複数の異なるクラスのうちの1つに属しているとして入力画像の個々のピクセルをラベル付けする。画像セグメンテーションの1つ例示的な使用事例は、オブジェクト検出であり、それによって、セグメンテーションシステムは、各ピクセルによって表されるオブジェクトのタイプに従って入力画像のピクセルをラベル付けする。
オブジェクト検出は、現実世界の環境において動作していることがあるロボットまたは車両など、機械エージェント(mechanical agent)への入力として使用されてもよい。検出されたオブジェクトは、たとえば、障害物(たとえば、人、他の機械エージェント、壁)、および/または通路(たとえば、機械エージェントが移動することができる道路または他の表面)であってもよい。このようにして検出されたオブジェクトは、機械エージェントの制御システムによって使用されて、機械エージェントの移動の方向および/または速度を制御することなどの機械タスクをどのように達成すべきかに関する決定を行うことができる。
画像セグメンテーションの別の例示的な使用事例は、医用画像をセグメント化することであり、それによって、セグメンテーションシステムは、入力医用画像のピクセルを、それらが特定の医学的疾患が存在する人間または動物の身体の領域を示すかどうかに従ってラベル付けする。これらは、単に画像セグメンテーションの非限定的例にすぎず、画像セグメンテーションの多くの他の実用的な適用例が存在する。
本明細書全体を通して、ニューラルネットワークを使用して画像を処理することは、ニューラルネットワークを使用して画像のピクセルに関連する強度値を処理することを示す。
本明細書に説明する主題の1つまたは複数の実装形態の詳細については、添付の図面および下記の説明に記載する。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
エンコーダニューラルネットワークを含む例示的なニューラルネットワークシステムを示す図である。 図1のシステムを訓練するための例示的な方法を示す図である。 訓練されたエンコーダニューラルネットワークを使用するための例示的な方法を示す図である。 訓練されたエンコーダニューラルネットワークを含む例示的なニューラルネットワークシステムを示す図である。 システムを訓練し使用するための例示的な方法を示す図である。 画像分類タスクに対する訓練されたエンコーダニューラルネットワークの性能を示すグラフである。
図においては、同様の参照数字は、同様の要素を示す。
本明細書は、ラベル付きの訓練データ項目を使用せず、および対照損失を使用せず、エンコーダニューラルネットワークを訓練して、データ項目の表現を生成する方法について説明する。対照損失を使用する方法は、肯定的例、すなわち、同じデータ項目の2つの変換された、または「拡張された(augmented)」ビューと、異なるデータ項目の拡張され変換された、または「拡張された」ビューを含む否定的例とを区別するように学習する。記載の方法の実装形態では、肯定的例のみがそれらの目的関数には必要であり、生成するのに厄介である可能性がある否定的例は必要ではない。諸実装形態はまた、ラベル付きの訓練データによるニューラルネットワークの性能に近づく性能を達成することもできる。
いくつかの記載の例においては、データ項目は、画像を含むが、概して、任意のタイプのデータ項目が処理されてもよい。異なるタイプのデータ項目のいくつかの例については、後で説明する。この方法は、訓練で使用されるのと同じタイプのデータ項目、たとえば画像を処理することを含む任意のタイプのタスクを行うためのエンコーダニューラルネットワークを訓練するのに使用し得る。
ここで使用されるとき、ビデオデータ項目を含む、画像データ項目の場合においては、タスクは、画像分類またはシーン認識タスク、画像セグメンテーションタスク、たとえば意味論的セグメンテーションタスク、オブジェクトローカライゼーションまたは検出タスク、奥行き推定タスクなどの任意の種類の画像処理または視覚タスクを含み得る。そのようなタスクを行う場合、入力は、画像のピクセルを含んでも、または画像のピクセルから導出されてもよい。画像分類またはシーン認識タスクの場合には、出力は、たとえば、入力データ項目、または入力データ項目のオブジェクトもしくはエレメント、あるいはビデオデータ項目内の行為がカテゴリに属していると推定された可能性を表す、複数の画像またはシーンのカテゴリのそれぞれについてスコアを提供する分類出力を含み得る。画像セグメンテーションタスクの場合、出力は、ピクセルごとに、割り当てられたセグメンテーションカテゴリ、またはピクセルがセグメンテーションカテゴリに属している、たとえば画像またはビデオに表されるオブジェクトまたは行為に属している確率を含み得る。オブジェクトローカライゼーションまたは検出タスクの場合、出力は、画像に表される1つまたは複数のオブジェクトについての境界ボックスまたは領域の座標を確定するデータを含み得る。奥行き推定タスクの場合、出力は、出力ピクセルが画像についての(3D)奥行きマップを確定するように、ピクセルごとに、推定された奥行き値を含み得る。そのようなタスクはまた、より高いラベルのタスク、たとえばビデオフレームにわたるオブジェクトトラッキング(object tracking)、またはジェスチャ認識、すなわち、ビデオに描かれているエンティティによって行われるジェスチャの認識に寄与することもある。
別の例示的な画像処理タスクは、出力が、画像に表されるオブジェクトのランドマークなどの1つまたは複数の画像キーポイントの座標を含む、画像キーポイント検出タスク、たとえば、キーポイントが身体の関節の位置を確定する人間の姿勢推定タスクを含んでもよい。さらなる例は、出力が、たとえば画像検索タスクの一部として、2つの画像間の類似度を表す値を含み得る画像類似度決定タスクである。
方法は、エンコーダニューラルネットワークが一部を形成するニューラルネットワークシステムを訓練するのに使用される。システムの残りは、訓練後には必要でない。訓練されたエンコーダニューラルネットワークは、さらなる訓練なしにタスクを行うのに使用され得、たとえば、そのパラメータがフリーズされることがあり、または訓練されたエンコーダニューラルネットワークは、特定のタスクを行うためにさらに訓練されてもよい。概して、訓練されたエンコーダニューラルネットワークは、特定のタスクを行うために、より大きいシステムに、たとえば、画像分類、画像セグメンテーション、オブジェクトローカライゼーション、または奥行き推定タスクを行うように構成されているシステムに組み込まれていてもよい。したがって、訓練されたニューラルネットワークを組み込んだ画像処理システムも提供される。
画像データ項目の場合においては、変換された、または「拡張された」ビューが、同じ画像の変換されたビューであってもよい。たとえば、画像は、2つのビューを生成するのに異なる方式でランダムにクロッピングされても、または歪められてもよい。広範な意味においては、方法は、そのような変換に対してロバストである表現を生成するように学習する。
図1は、方法の一例を実装するためのニューラルネットワークシステム100を示している。図1のシステムは、1つまたは複数の場所内の1つまたは複数のコンピュータ上の1つまたは複数のコンピュータプログラムとして実装され得る。
システム100は、オンラインニューラルネットワーク110およびターゲットニューラルネットワーク120を含む。
ターゲットニューラルネットワーク120は、データ項目102の第1の変換されたビュー(ν')を受信するように構成されている。オンラインニューラルネットワーク110は、同じデータ項目102の第2の変換されたビュー(ν)を受信するように構成されている。変換されたビューは、さらに後述するように、それぞれの変換(T'、T)をデータ項目102に適用することによって生成される。いくつかの実装形態においては、データ項目102は、画像を含み、この画像は、本明細書に使用されるとき、ビデオの画像フレームを含む。
ターゲットニューラルネットワーク120は、データ項目の第1の変換されたビュー(ν')を処理して、ターゲット出力126(z')を生成するように構成されている。オンラインニューラルネットワーク110は、データ項目の第2の変換されたビュー(ν)を処理して、ターゲット出力の予測118(q(z))を生成するように構成されている。オンラインニューラルネットワーク110は、たとえば、訓練エンジン130によって、機械学習オプティマイザを使用してオンラインニューラルネットワークのパラメータを更新することによって、ターゲット出力126の予測118とターゲット出力126との差、すなわち、誤差を最小化するように訓練される。
オンラインニューラルネットワーク110およびは、エンコーダニューラルネットワーク112、オプションの投影ニューラルネットワーク114、および予測ニューラルネットワーク116を含み、これらのニューラルネットワークのパラメータセットによって確定される。ターゲットニューラルネットワーク120は、エンコーダニューラルネットワーク122、およびオプションの投影ニューラルネットワーク124を含み、これらのニューラルネットワークのパラメータセットによって確定される。
いくつかの実装形態においては、本質的にではないが、ターゲットニューラルネットワーク120は、オンラインニューラルネットワーク110と同じアーキテクチャを有する(予測ニューラルネットワークを除く)が、異なるパラメータ(重み)を有する。つまり、エンコーダニューラルネットワーク112、122は、同じニューラルネットワークであるが、異なるパラメータを有し得、同様に、投影ニューラルネットワーク114、124は、同じニューラルネットワークであるが、異なるパラメータを有し得る。
エンコーダニューラルネットワーク112、122はそれぞれ、データ項目102の変換されたビューを受信し、これを処理して、データ項目102のそれらのそれぞれの変換されたビューの表現、すなわち、高次元特徴ベクトルを生成する。これは、後続のそれぞれの投影ニューラルネットワーク114、124によって、受信され、処理されて、データ項目102のそれらのそれぞれの変換されたビューの低減された次元表現、すなわち、低減された次元特徴ベクトルz、z'がそれぞれ生成され得る。投影ニューラルネットワーク124からの低減された次元表現は、ターゲット出力126を提供する。
予測ニューラルネットワーク116は、投影ニューラルネットワーク114から、低減された次元表現(またはエンコーダニューラルネットワーク112から、表現)を受信し、これを処理して、予測118を生成する。諸実装形態においては、予測118は、ターゲット出力126と同じ次元を有するベクトルを含む。予測ニューラルネットワーク116への入力は、特徴ベクトルの値を除いて、ターゲット出力126のものと同じであるデータ項目の特徴ベクトル表現を含み得る。ターゲット出力126は、先に説明したように、投影ニューラルネットワーク124の出力であっても、またはいくつかの実装形態においては、エンコーダニューラルネットワーク122からの表現であってもよい。
エンコーダニューラルネットワーク112、122は、データ項目102をエンコーディングするのに適している任意のアーキテクチャを有し得る。本明細書に説明する訓練方法の結果は、訓練されたニューラルネットワーク112である。エンコーダニューラルネットワーク112は、入力データ項目の表現を生成するように訓練され、1つのデータ項目を入力として受信するように、および受信したデータ項目の特徴ベクトル表現を生成するように構成されている任意のニューラルネットワークとすることができる。
たとえば、データ項目が画像またはビデオを含む場合、エンコーダニューラルネットワーク112、122はそれぞれ、入力画像またはビデオの表現、たとえば特徴ベクトル表現を生成するように構成されている任意のタイプの画像またはビデオエンコーディングニューラルネットワークを含み得る。そのような画像またはビデオエンコーディングニューラルネットワークは、1つまたは複数の畳込みニューラルネットワーク層を含んでも、または画像または視覚処理に適している任意の他のアーキテクチャを有してもよい。諸実装形態においては、そのような画像またはビデオエンコーダニューラルネットワーク112、122はそれぞれ、残差ニューラルネットワーク、すなわち、1つまたは複数の残差接続またはスキップ接続を用いたニューラルネットワークを含んでもよい。単に説明するための例として、1つまたは複数の残差接続またはスキップ接続を用いた畳込みニューラルネットワークが、たとえば、ResNet(Heら、arXiv:1512.03385)に基づいて使用され得るが、畳込みニューラルネットワークを使用する必要はない。
概して、エンコーダニューラルネットワーク112、122は、エンコーダニューラルネットワーク112が、訓練されることになるタイプのデータ項目、たとえば、画像、ビデオ、オーディオ、テキスト、またはその他を処理するように構成されている。
投影ニューラルネットワーク114、124は、特徴表現の次元を低減するように構成されている任意のニューラルネットワークであってよい。たとえば、それぞれが、たとえば1つまたは複数の完全接続された層を含み、オプションで、それぞれの後に、バッチ正規化層(IoffeおよびSzegedy、arXiv:1502.03167)が続き、完全接続された、オプションで線形の、出力層が続く、入力空間よりも小さい出力空間を有する多層パーセプトロンを含んでもよい。
単なる例として、224×224ピクセル画像の場合、エンコーダニューラルネットワークのそれぞれによって生成される特徴ベクトル表現は、次元が4096であってよく、低減した次元表現は、次元が256であってよい。
諸実装形態においては、システムは、データ項目に適用される変換を無視するように、エンコーダニューラルネットワーク112を訓練し得る。画像データ項目を例にとると、訓練画像への変換がカラー変更を含む場合、特徴表現は、カラーを無視するように学習可能になる。特徴表現を低減した次元表現に投影すると、特徴表現において有用な情報を維持するのに役立つことがある。
諸実装形態においては、予測ニューラルネットワーク116は、ターゲット出力を予測するように、たとえば、投影ニューラルネットワーク114から低減した次元表現から、投影ニューラルネットワーク124から低減した次元表現を予測するように、学習する比較的小さいニューラルネットワークであってもよい。したがって、予測ニューラルネットワーク116のパラメータは、回帰モデルを具現化する。例示的な実装形態においては、予測ニューラルネットワーク116は、別の多層パーセプトロンを含む。
オプションで、ターゲット出力126および予測118のそれぞれの出力ベクトルは、たとえばL2ノルムを使用して、正規化されてもよい。たとえば、ターゲット出力126、z'は、
Figure 0007494316000001
と正規化されてもよく、予測118、q(z)は、
Figure 0007494316000002
と正規化されてもよく、式中、q(・)は、予測ニューラルネットワーク116を表し、zは、投影ニューラルネットワーク114からの低減した次元表現である。
ニューラルネットワークシステム100はまた、システムのための訓練処理を実装するように構成されている訓練エンジン130も含む。
図2は、図1のニューラルネットワークシステム100、具体的にはエンコーダニューラルネットワーク112を訓練するための例示的な方法を示している。図2の方法は、1つまたは複数の場所内の1つまたは複数のコンピュータ上の1つまたは複数のコンピュータプログラムとして実装され得る。
オンラインニューラルネットワーク110のパラメータおよびターゲットニューラルネットワーク120のパラメータは、ランダム値に初期化され得る。ステップ200においては、訓練データ項目、たとえば訓練画像が取得される。次いで、これは、処理されて、データ項目の第1のおよび第2の異なって変換された、または「拡張された」ビューが取得される(ステップ202)。これには、変換のうちの1つ、または一連の変換をデータ項目に適用して、各変換されたビューを生成することが含まれることがある。たとえば、各変換されたビューは、所定の確率を変換セットのそれぞれに適用することによって取得されてもよい。
たとえば、訓練データ項目が画像を含む場合、変換は、画像のランダムクロッピング、画像の反転、カラージッタリング、カラーの抜け、ガウスぼかし、およびソラリゼーションのうちの1つまたは複数を含んでもよい。ランダムクロッピングは、画像のランダムパッチを選択し、次いで、これを画像の元のサイズに拡大することを含み得る。画像の反転には、水平方向の反転または垂直方向の反転を画像に適用することが含まれることがある。カラージッタリングは、ランダムオフセットによって、画像のいくつかのピクセルまたはすべてのピクセルの輝度、コントラスト、彩度、および色相のうちの1つまたは複数を変更することを含み得る。カラーの抜けは、画像をグレースケールに置き換えることを含み得る。ガウスぼかしは、ガウスぼかしカーネルを画像に適用することを含むことがあり、他のタイプのカーネルが、他のタイプのフィルタリングに使用されてもよい。ソラリゼーションは、カラー変換のソラリゼーション化を画像に適用することを含むことがあり、他のカラー変換が使用されてもよい。画像の回転、または画像の一部を切り取ること(均一な値にランダムパッチの画素を設定すること)など、他の変換も可能である。
たとえば画像の変換は、敵対的摂動、すなわち、エンコーダニューラルネットワーク112が誤った表現を生成する可能性を高めるように選択される摂動を含んでもよい。たとえば、敵対的攻撃が、たとえばMadryら、arXiv:1706.06083に記載の技法を使用して、変換されたビューのペアのうちの変換されたビューのうちの1つに対して実装されて、たとえば、予測118とターゲット出力126との間の誤差を最小化し得る。
変換されたビューを取得するのに使用され得る多くの異なる変換が存在する。使用される特定のタイプの変換は、たとえば、エンコーダニューラルネットワーク112が訓練されているタスクに応じて、およびデータ項目の中で予想される変動のタイプに応じて、変えてもよい。オプションで、変換されたビューは、たとえば、画像の場合のカラーチャンネルにわたって、正規化されてもよい。正規化には、平均値を減算すること、および標準偏差によって除算することが含まれることがある。
データ項目の第1の変換されたビューは、ターゲットニューラルネットワーク120によって処理されて、ターゲット出力126が生成され(ステップ204)、データ項目の第2の変換されたビューは、オンラインニューラルネットワーク110によって処理されて、ターゲット出力126の予測118が生成される(ステップ206)。次いで、予測118とターゲット出力126との間の予測誤差、具体的には、予測118とターゲット出力126とに基づく予測損失が決定される(ステップ208)。予測損失はオプションで、先に説明したように正規化される、予測118とターゲット出力126との差の任意の尺度を含み得る。たとえば、予測損失または誤差は、(平均)二乗誤差、負のコサインまたはドット積の類似度、またはクロスエントロピー損失(特徴ベクトル値が、確率として解釈され、正規化される場合)を含んでもよい。たとえば、予測損失または誤差、Lは、Lノルムとして、たとえば、
Figure 0007494316000003
として決定され得、式中、||・||2は、L2ノルムを示す。
いくつかの実装形態においては、方法は、さらなる予測損失または誤差、L'を決定し、第1の変換されたビューと第2の変換されたビューは、スワッピングされ、すなわち、データ項目の第1の変換されたビューは、オンラインニューラルネットワーク110によって処理され、データ項目の第2の変換されたビューは、ターゲットニューラルネットワーク120によって処理される。次いで、対称予測損失または誤差、LTOTALは、損失を加算することによって、すなわち、LTOTAL=L+L'によって決定され得る。
方法は、データ項目を訓練するバッチにわたって予測損失または誤差を累積してから進んでもよい。
ステップ210および212においては、オンラインニューラルネットワーク110のパラメータおよびターゲットニューラルネットワーク120のパラメータが更新される。ただし、オンラインニューラルネットワーク110のパラメータのみ、勾配降下によって、すなわち、予測損失または誤差の勾配を逆伝搬することによって更新され、ターゲットニューラルネットワーク120のパラメータはそうではない。これは、ターゲットニューラルネットワーク120への「勾配停止」の提供として、すなわち、ターゲットニューラルネットワーク120に逆流する勾配を停止することによって表すことができる。しかしながら、実際においては、これは、予測損失または誤差を使用して、オンラインニューラルネットワーク110のみを訓練することによって達成され得る。
したがって、ステップ210においては、オンラインニューラルネットワーク110のパラメータは、予測損失または誤差を最小化するために更新され、ステップ212においては、ターゲットニューラルネットワーク120のパラメータが、オンラインニューラルネットワークのパラメータに基づいて更新される。いくつかの実装形態においては、誤差の最小化には、予測118とターゲット出力126との間の類似度、たとえば、コサイン類似度(cosine similarity)を最大化することが含まれることがある。
諸実装形態においては、オンラインニューラルネットワーク110のパラメータは、予測損失または誤差を最小化するために、勾配降下ベースのオプティマイザなどの機械学習オプティマイザを用いて実装される確率的最適化ステップを使用して更新される。他のタイプの機械学習オプティマイザが使用されてもよい。諸実装形態においては、オプティマイザは、予測損失または誤差、たとえばL、またはLTOTALを、オンラインニューラルネットワーク110のパラメータに対してのみ最小化し、すなわち、ターゲットニューラルネットワーク120のパラメータに対しては最小化しない。たとえば、更新されるオンラインニューラルネットワーク110のパラメータは、予測ニューラルネットワーク116、投影ニューラルネットワーク114(存在する場合)、およびエンコーダニューラルネットワーク112を通じて予測損失または誤差の勾配を逆伝搬することによって更新されてもよい。
諸実装形態においては、ターゲットニューラルネットワーク120のパラメータは、オンラインニューラルネットワーク110の対応する部分のパラメータに基づいて、すなわち、予測損失または誤差に基づかずに、更新される。たとえば、ターゲットニューラルネットワーク120のパラメータは、オンラインニューラルネットワーク110のパラメータのコピーまたは移動平均、たとえば、加重移動平均または指数移動平均として決定されてもよい。概して、ターゲットニューラルネットワーク120のパラメータは、オンラインニューラルネットワーク110のパラメータの遅延した(およびより安定的な)バージョンを含む。
いくつかの実装形態においては、ターゲットニューラルネットワーク120のパラメータは、更新ξ←τξ+(1-τ)θを使用して決定されてもよく、式中、τは、範囲[0,1]におけるターゲット減衰率であり、ξは、ターゲットニューラルネットワーク120のパラメータセットであり、θは、予測ニューラルネットワークのパラメータ、すなわち、エンコーダニューラルネットワーク112のパラメータを除いたオンラインニューラルネットワーク110のパラメータと、存在する場合に投影ニューラルネットワーク114のパラメータとのセットである。単なる例として、τは、0.99よりも大きくてよく、訓練中に増加させてもよい。
したがって、方法の諸実装形態は、更新された、すなわち部分的に訓練されたオンラインニューラルネットワーク110が、オンラインニューラルネットワーク110のさらなる訓練のための新規ターゲット出力を生成するためにターゲットニューラルネットワーク120を更新するのに使用されるとき、ブートストラッピングを使用する。新規ターゲットを使用してオンラインニューラルネットワーク110を訓練すると、エンコーダニューラルネットワーク112からの表現が改良される。
たとえば、画像の1つの拡張されたビュー、たとえば1つのランダムクロップの表現は、同じ画像の別の拡張されたビュー、たとえば隣接クロップの表現を予測し得る。しかしながら、上述した上記の訓練の結果として、エンコーダニューラルネットワーク112の特徴表現を、すべての拡張について同じになる定数ベクトルの崩壊につながらないことは驚くべきことである。むしろ、ターゲットニューラルネットワークは、訓練を安定させるのに役立つ。ターゲットニューラルネットワーク120をオンラインニューラルネットワークと同時に、または同じ頻度で更新される必要はない。
ニューラルネットワークシステム100が訓練された後、エンコーダニューラルネットワーク112(およびその訓練されパラメータ)を除いてシステムのすべてが破棄され得る。つまり、図2の方法の結果は、エンコーダニューラルネットワーク112の訓練されたバージョンである。
図3は、画像など、データ項目を処理するのに訓練されたエンコーダニューラルネットワーク112を使用するための方法を示している。方法は、1つまたは複数の場所内の1つまたは複数のコンピュータ上の1つまたは複数のコンピュータプログラムとして実装され得る。
ステップ300においては、入力データ項目、たとえば、画像またはビデオは、訓練されたオンラインニューラルネットワーク110の訓練されたエンコーダニューラルネットワーク部分に提供される。入力データ項目は、訓練されたエンコーダニューラルネットワーク112の一部またはすべてを使用して処理されて(ステップ302)、入力データ項目の表現を出力する(ステップ304)。次いで、これは、さらに処理されて、タスク、たとえば、先に説明した画像処理タスクが行われる(306)。訓練されたエンコーダニューラルネットワーク112は、たとえば、システムを訓練するのに使用されるものと同じタイプのデータ項目を処理する任意の処理タスクを行うのに使用され得る。
タスクに応じて、訓練されたエンコーダニューラルネットワーク112のすべてが必ずしもデータ項目を処理するのに必要であるわけではないことがある。したがって、訓練されたエンコーダニューラルネットワーク112から出力される表現は、上述した特徴ベクトル表現であってよく、または表現出力は、たとえば、最終的な完全接続された層からの出力ではなく、エンコーダニューラルネットワーク112の中間層または「バックボーン(backbone)」からの出力であってもよい。たとえば、エンコーダニューラルネットワークがResNetアーキテクチャを有する場合、表現出力は、中間の畳込みニューラルネットワーク層からの出力であってもよい。
図4aは、実行すべきデータ項目処理タスクに適合されている、訓練されたエンコーダニューラルネットワーク112(またはその一部)、およびオプションのシステムヘッド402を含むコンピュータ実装データ項目処理ニューラルネットワークシステム400を示している。システム400は、データ項目を入力として受信し、訓練されたエンコーダニューラルネットワーク112(またはその一部)を使用してデータ項目を処理して、入力データ項目の表現を出力するように構成されている。
いくつかの実装形態においては、データ項目処理タスクを行うためのシステム出力404は、訓練されたエンコーダニューラルネットワーク112からの表現出力を含む。いくつかの実装形態においては、訓練されたエンコーダニューラルネットワーク112からの表現出力は、システムヘッド402によってさらに処理されて、タスクのためのシステム出力404を生成する。
1つの例として、訓練されたエンコーダニューラルネットワーク112から出力される表現は、2つのデータ項目間の、たとえば2つの画像間の類似度を評価するのに使用され得る特徴ベクトル表現を含む。これには、各データ項目を順番にエンコーダニューラルネットワーク112に提示して、それぞれの特徴ベクトル表現を生成すること、次いで、類似度尺度、たとえばLノルムなどの距離メトリック、またはドット積もしくはコサイン類似度尺度を使用して表現を比較することが含まれることがある。類似度尺度は、たとえば、データ項目が重複または重複に近い検出についてコピーされた可能性が高いときを検出するのに使用され得る。これはまた、データ項目検証に使用されてもよい。別の例としては、訓練されたエンコーダニューラルネットワーク112から出力される特徴ベクトル表現は、ターゲットデータ項目、たとえばターゲット画像またはビデオと、データベース内の複数のデータ項目、たとえば画像またはビデオのそれぞれとの間の類似度を評価するのに使用され得る。最も近いもの、または最も近いもののうちの1つが選択されて、ターゲットデータ項目に類似するデータ項目または複数のデータ項目をデータベースから取り出してもよい。
さらなる例として、訓練されたエンコーダニューラルネットワーク112の最終出力層または複数の最終出力層は、訓練後に破棄されてもよく、訓練されたエンコーダニューラルネットワーク112からの表現出力は、エンコーダニューラルネットワーク112の中間層(以前、あったもの)から生成された特徴マップ出力を含んでもよい。そのような特徴マップは、たとえば、入力画像などの入力データ項目の特徴を識別するために、ユーティリティを有することができ、データ項目処理タスクは、入力データ項目から、たとえば入力画像または複数の入力画像から、そのような特徴マップを生成するタスクとし得る。
データ項目が画像であり、訓練されたエンコーダニューラルネットワーク112からの表現出力がシステムヘッド402によってさらに処理されるいくつかの実装形態においては、ニューラルネットワークシステム400は、画像処理システムである。画像分類またはシーン認識タスクの場合には、システムヘッド402は、分類器、たとえば、線形分類器を含み得る。意味論的セグメンテーションタスクの場合には、表現出力は、エンコーダニューラルネットワーク112の中間層または「バックボーン」からの、たとえば、ResNet畳込み層からの出力とすることができ、システムヘッド402は、意味論的セグメンテーションデコーダニューラルネットワーク、たとえば、ピクセルごとの分類について最終的1×1の畳込みを含む畳込みニューラルネットワークを含み得る。オブジェクト検出タスクの場合には、表現出力はまた、エンコーダニューラルネットワーク112の中間層、または「バックボーン」からの出力とすることができ、システムヘッド402は、境界ボックス予測ニューラルネットワークヘッドを含み得る。奥行き推定タスクの場合には、表現出力は、エンコーダニューラルネットワーク112の中間層または「バックボーン」からの出力とすることができ、システムヘッド402は、1つまたは複数のアップサンプリングブロックを含む畳込みニューラルネットワークを含み得る。これらの例においては、システム出力404は、先に説明したタスクについての出力とすることができる。
別の例としては、表現出力は、エンコーダニューラルネットワーク112の中間層または「バックボーン」からの出力とすることができ、システムヘッド402は、強化学習システムを含んでもよく、システム出力404は、たとえば現実世界の環境における、エージェント、たとえば機械エージェントによって行われるべき行為を選択するための行為選択出力とすることができる。
データ項目処理ニューラルネットワークシステム400は、データ項目処理タスクを行うように訓練され得る。いくつかの実装形態においては、そのような訓練中、システムヘッド402のパラメータが訓練されている一方で、システム400における訓練されたエンコーダニューラルネットワーク112のパラメータは、フリーズされていてもよい。いくつかの実装形態においては、そのような訓練中、訓練されたエンコーダニューラルネットワーク112のパラメータ、およびシステムヘッド402のパラメータは、一緒に訓練されて、オプションで何らかの正則化を用いて、エンコーダニューラルネットワーク112のパラメータをタスクに対して微調整してもよい。
図4bは、データ項目処理タスクを行うのにデータ項目処理ニューラルネットワークシステム400を訓練し使用するための方法を示している。方法は、1つまたは複数の場所内の1つまたは複数のコンピュータ上の1つまたは複数のコンピュータプログラムとして実装され得る。
図4bは、エンコーダニューラルネットワーク112を含むオンラインニューラルネットワーク110が、たとえば図2のブートストロッピング方法によって、先に訓練済みであることを示している(ステップ400)。ステップ402においては、方法は、先の訓練データ項目と同じ訓練データ項目、または新規訓練データ項目を使用して、データ項目処理タスクを行うために、任意の機械学習技法、たとえば、目的関数の勾配の逆伝搬によってシステム400を訓練する。ステップ402においては、エンコーダニューラルネットワーク112(またはシステム400に含まれるその一部)のパラメータをさらに訓練することを含み得るが、そうである必要はない。次いで、ステップ404においては、訓練されたシステム400は、データ項目処理タスクを行うのに使用され得る。
図5は、ImageNetデータベース(Russakovskyら、arXiv:1409.0575)からの画像の分類に関する。y軸は、パーセンテージtop-1精度(top-1 accuracy)、すなわち、最も確率の高い予測の精度を示し、x軸は、分類を行うニューラルネットワークにおけるパラメータの数を示している。
図5においては、曲線510は、教師付き訓練によるResNet-200画像分類器についてである。曲線520は、後にエンコーダニューラルネットワークパラメータをフリーズした状態で線形分類器が特徴ベクトル表現の上位で訓練されることが続く、ResNet-50エンコーダニューラルネットワークを含む、画像分類システムについてである。ResNet-50エンコーダニューラルネットワークは、上述した訓練済みのエンコーダニューラルネットワーク112である。訓練されたエンコーダニューラルネットワーク112は、対照損失(図5には示されていない)を使用する他の自己教師付き手法よりも性能が優れており、教師付き訓練の性能に近づく。
データ項目は、概して、先に説明したように画像およびビデオフレームを含む任意のタイプのデータ項目とすることができる。たとえば、データ項目は、オーディオデータ項目、すなわち、デジタル化されたオーディオ波形、たとえば音声波形の表現を含むデータ項目であってもよい。そのような表現は、波形のデジタル化された振幅値を表すサンプル、またはたとえば、STFT(短時間フーリエ変換(Short-Term Fourier Transform))、もしくはMFCC(メル周波数ケプストラム係数(Mel-Frequency Cepstral Coefficient))の表現などの波形の時間/周波数領域表現を含んでもよい。この場合には、データ項目の変換された、または拡張された「ビュー」はまた、ランダムクロップを、ただし、空間領域ではない時間または周波数領域に、たとえば、ランダム開始時間およびランダム終了時間による、またはランダムに選択されたより高い周波数およびより低い周波数によるオーディオデータ項目の部分の選択を含めてもよい。データ項目の他の変換された、または拡張された「ビュー」は、たとえば、オーディオの振幅をランダムに増加または減少させることによって、データ項目の振幅に対する修正、またはたとえば、オーディオをランダムにフィルタリングすることによって、オーディオの周波数特性に対する修正を含んでもよい。
オーディオ波形を表すデータ項目の代わりに、データ項目は、任意の信号、たとえば、センサ、たとえばオブジェクトまたは現実世界の特性を感知するセンサからの信号の波形を表してもよい。次いで、データ項目の変換されたビューは、オーディオ波形について上述したものに対応し得る。
データ項目が波形、たとえばオーディオ波形を表す場合、データ項目処理タスクは、たとえば、出力がデータ項目もしくはデータ項目のセグメントについてのカテゴリスコアまたはタグとすることができる、音声もしくは音認識タスク、電話もしくは話者分類タスク、またはオーディオタギングタスクなどの識別または分類タスク;あるいは出力が類似度スコアとすることができる、類似度決定タスク、たとえば、オーディオコピー検出または検索タスクを含んでもよい。
いくつかの実装形態においては、データ項目は、テキストデータ項目であってもよく、データ項目の変換された、または拡張された「ビュー」は、文法またはスペリングの歪みなどのデータ項目のクロップまたはデータ項目の歪みを含み得る。データ項目処理タスクは、たとえばカテゴリスコア、類似度スコア、または上述したタグを生成するために、識別もしくは分類タスク、または類似度決定タスク;あるいは機械翻訳タスクを含んでもよい。データ項目はまた、観察、たとえば、広告印象の観察、またはクリックスルー回数もしくはクリックスルー率を、たとえばテキストデータなどの他のデータとの組合せで表すこともできる。次いで、変換されたビューは、同様に、データ項目の歪みを含むことがあり、同様のタスクが行われてもよい。
1つまたは複数のコンピュータのシステムが特定の動作または行為を行うように構成すべきであるということは、システムにソフトウェア、ファームウェア、ハードウェア、または動作に際して、システムに動作または行為を行わせるそれらの組合せがインストールされていることを意味する。1つまたは複数のコンピュータプログラムが特定の動作または行為を行うように構成すべきであるということは、1つまたは複数のプログラムが、データ処理装置によって実行されると、装置に動作または行為を行わせる命令を含むことを意味する。
本明細書に説明する主題および機能的動作の実施形態は、デジタル電子回路機構において、本明細書に開示される構造、およびそれらの構造的均等物を含む、有形に具現化されたコンピュータソフトウェア、もしくはファームウェアにおいて、コンピュータハードウェアにおいて、あるいはそれらのうちの1つまたは複数の組合せで実装することができる。
本明細書に説明する主題の実施形態は、1つまたは複数のコンピュータプログラムとして、すなわち、データ処理装置による実行、またはデータ処理装置の動作を制御するために、有形の非一時的プログラム担体にエンコーディングされたコンピュータプログラム命令の1つまたは複数のモジュールとして実装することができる。代替としてまたは追加として、プログラム命令は、データ処理装置による実行に適した受信機装置に送信するための情報をエンコーディングするために生成される人工的に生成された伝搬信号、たとえば機械生成された電気信号、光信号または電磁信号にエンコーディングすることが可能である。コンピュータストレージ媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、ランダムまたはシリアルアクセスメモリデバイス、あるいはそれらのうちの1つまたは複数の組合せとすることができる。ただし、コンピュータストレージ媒体は、伝搬信号ではない。
「データ処理装置」という用語は、データを処理するためのすべての種類の装置、デバイス、および機械を包含し、例としては、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータが挙げられる。装置は、専用の論理回路機構、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含むことができる。装置はまた、ハードウェアに加えて、問題のコンピュータプログラムの実行環境を創出するコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、あるいはそれらのうちの1つまたは複数の組合せを構成するコードも含むことができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、またはコードとも呼ばれるまたは説明されることがある)は、コンパイル型言語またはインタープリータ型言語、または宣言型言語または手続き型言語を含む任意の形態のプログラミング言語で記述することができ、スタンドアロンのプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピュータ環境での使用に適した他のユニットなどを含む任意の形態で展開することができる。コンピュータプログラムは、ファイルシステム内のファイルに対応することができるが、そうである必要はない。プログラムは、他のプログラムまたはデータ、たとえばマークアップ言語文書に記憶された1つまたは複数のスクリプトを保持するファイルの一部分、問題のプログラムに専用の単一のファイル、または複数の協調ファイル、たとえば1つまたは複数のモジュール、サブプログラム、もしくはコードの一部分を記憶するファイルに記憶することができる。コンピュータプログラムは、1つのコンピュータ上で実行されるように展開することも、1つのサイトに位置する、または複数のサイトに分散し、通信ネットワークによって相互接続されている複数のコンピュータ上で実行されるように展開することもできる。
本明細書で使用するとき、「エンジン」または「ソフトウェアエンジン」は、入力とは異なる出力を提供するソフトウェア実装入力/出力システムを示す。エンジンは、ライブラリ、プラットフォーム、ソフトウェア開発キット(「SDK」)、またはオブジェクトなどの機能性のエンコーディングされたブロックとすることができる。各エンジンは、1つまたは複数のプロセッサとコンピュータ可読媒体を含む任意の適切なタイプのコンピューティングデバイス、たとえば、サーバ、モバイルフォン、タブレットコンピュータ、ノートブックコンピュータ、音楽プレーヤ、電子書籍リーダ、ラップトップもしくはデスクトップコンピュータ、PDA、スマートフォン、または他の固定もしくは携帯デバイスにおいて実装することができる。さらには、エンジンのうちの2つ以上は、同じコンピューティングデバイスにおいて実装されても、または異なるコンピューティングデバイスにおいて実装されてもよい。
本明細書に記載された方法および論理フローは、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラマブルコンピュータによって実行されて、入力データに対して動作し、出力を生成することによって機能を行うことが可能である。また、方法および論理フローは、専用の論理回路機構、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によっても実行でき、装置もまた、それらとして実装することができる。たとえば、方法および論理フローは、GPU(Graphics Processing Unit)またはTPU(Tensor Processing Unit)を使用することによって実行することができ、装置はまた、GPUまたはTPUを使用して実装することができる。
コンピュータプログラムの実行に適したコンピュータは、例として、汎用もしくは専用のマイクロプロセッサまたはその両方、あるいは他の任意の種類の中央処理装置をベースとすることができる。概して、中央処理装置は、読取り専用メモリもしくはランダムアクセスメモリまたはその両方から命令およびデータを受け取ることになる。コンピュータの典型的な要素は、命令を行うまたは実行するための中央処理装置と、命令およびデータを記憶するための1つまたは複数のメモリデバイスである。概して、コンピュータは、データを記憶するための1つまたは複数の大容量ストレージデバイス、たとえば、磁気ディスク、光磁気ディスク、または光ディスクからデータを受信する、もしくはデータを転送する、またはその両方を行うために動作可能に結合されるか、または含むことになる。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。その上、コンピュータは、別のデバイス、たとえば、ほんの数例を挙げると、モバイルフォン、パーソナルデジタルアシスタント(PDA)、モバイルオーディオまたはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、または携帯ストレージデバイス、たとえば、ユニバーサルシリアルバス(USB)フラッシュドライブに埋め込むことができる。
コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、たとえばEPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、たとえば内蔵ハードディスクまたはリムーバルディスク;光磁気ディスク;およびCD ROMおよびDVD-ROMディスクを含むすべての形態の不揮発メモリ、媒体およびメモリデバイスを含む。プロセッサおよびメモリは、専用の論理回路機構によって補足される、またはその中に組み込まれていることができる。
ユーザとの対話を可能にするために、本明細書に記載の主題の実施形態は、ユーザに情報を表示するためのディスプレイデバイス、たとえばCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ、ならびにユーザがコンピュータに入力を提供できるキーボードおよびポインティングデバイス、たとえばマウスまたはトラックボールを有するコンピュータにおいて実装され得る。同様に、他の種類のデバイスがユーザとの対話を可能にするのに使用され得、たとえば、ユーザに提供されるフィードバックは、視覚フィードバック、聴覚フィードバック、または触覚フィードバックなどの任意の形態の感覚フィードバックとすることができ、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受信することができる。加えて、コンピュータは、ユーザが使用するデバイスに文書を送信し、デバイスから文書を受信することによって、たとえば、ウェブブラウザから受信した要求に応答して、ユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することによって、ユーザと対話することができる。
本明細書に記載される主題の実施形態は、バックエンド構成要素、たとえば、データサーバとして、またはミドルウェア構成要素、たとえば、アプリケーションサーバを含む、またはフロントエンド構成要素、たとえば、ユーザが本明細書に記載の主題の実装形態と対話できるグラフィカルユーザインターフェースまたはWebブラウザを有するクライアントコンピュータ、あるいは1つまたは複数のそのようなバックエンド、ミドルウェア、またはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムにおいて実装することが可能である。システムの構成要素は、デジタルデータ通信の任意の形態または媒体、たとえば、通信ネットワークによって相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)および広域ネットワーク(「WAN」)、たとえば、インターネットが挙げられる。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、概して、互いにリモートにあり、典型的には、通信ネットワークを介して対話する。クライアントとサーバの関係は、それぞれのコンピュータ上で実行されるコンピュータプログラムによって生じ、互いにクライアント/サーバの関係を有する。
本明細書は、多くの特定の実装形態の詳細を含むが、これらは、任意の発明の範囲または特許請求され得るものの限定と解釈すべきではなく、むしろ、特定の発明の特定の実施形態に固有であり得る特徴の記述として解釈すべきである。別個の実施形態の文脈で本明細書に説明されている特定の特徴は、単一の実施形態において組合せで実装することもできる。逆に、単一の実施形態の文脈で説明されている様々な特徴は、複数の実施形態において別個にまたは任意の適切な副組合せで実装することもできる。その上、特徴は、特定の組合せで機能するとして上述され、当初はそのように主張されることさえあるが、特許請求された組合せからの1つまたは複数の特徴は、場合によっては組合せから削除され、特許請求された組合せは、副組合せまたは副組合せの変形形態を対象とすることもある。
同様に、動作が特定の順序で図面に描かれているが、これは、望ましい結果を達成するために、そのような動作が示された特定の順序で、または順次に行われること、またはすべての例示の動作が行われることを要求するものと理解すべきではない。特定の状況下では、マルチタスクおよび並列処理が有利であることがある。その上、上述した実施形態における様々なシステムモジュールおよびコンポーネントの分離は、すべての実施形態においてそのような分離を必要とすると理解すべきではなく、説明したプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品に一緒に統合することができ、または複数のソフトウェア製品にパッケージングすることができると理解すべきである。
主題の特定の実施形態について説明してきた。他の実施形態は、添付の特許請求の範囲の範囲内にある。たとえば、特許請求の範囲に記載された行為は、異なる順序で行われても、望ましい結果を達成することができる。1つの例として、添付の図に描かれた方法は、望ましい結果を達成するために、必ずしも示された特定の順序、または順次的な順序を必要とするわけではない。特定の実装形態では、マルチタスクおよび並列処理が有利であり得る。
100 ニューラルネットワークシステム
102 データ項目
110 オンラインニューラルネットワーク
112、122 エンコーダニューラルネットワーク
114、124 投影ニューラルネットワーク
116 予測ニューラルネットワーク
118 予測
120 ターゲットニューラルネットワーク
126 ターゲット出力
130 訓練エンジン
400 コンピュータ実装データ項目処理ニューラルネットワークシステム
402 システムヘッド
404 システム出力

Claims (18)

  1. 自己教師付き学習方法においてラベルの無い訓練データを用いてニューラルネットワークを訓練するコンピュータ実装される方法であって、
    練データ項目の第1の変換されたビュー (ν') 、第1のエンコーダニューラルネットワークを備えるターゲットニューラルネットワークを用いて処理して、前記訓練データ項目の表現を含むターゲット出力を生成するステップと、
    記訓練データ項目の第2の変換されたビュー (ν) 、第2のエンコーダニューラルネットワークを備えるオンラインニューラルネットワークを用いて処理して、前記訓練データ項目の表現を含む前記ターゲット出力の予測を生成するステップと、
    前記ターゲット出力の前記予測と前記ターゲット出力との間の誤差を最小化するために、前記オンラインニューラルネットワークの1つまたは複数のパラメータを更新するステップと、
    前記オンラインニューラルネットワークの前記パラメータに基づいて前記ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップと
    含み、
    前記オンラインニューラルネットワークは前記ターゲット出力を予測するための予測ニューラルネットワークをさらに備え、前記ターゲットニューラルネットワークは予測ニューラルネットワークを備えず、
    前記方法は、
    前記訓練データ項目の表現を受信するステップと、
    前記予測ニューラルネットワークのパラメータによって具現化される回帰モデルを用いて、前記訓練データ項目の前記表現を処理することによって前記ターゲット出力の前記予測を生成するステップと
    を含む命令を前記予測ニューラルネットワークによって実行するステップをさらに含む
    法。
  2. 前記ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップが、
    前記オンラインニューラルネットワークの前記パラメータの移動平均を用いて前記ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップ
    を含む、請求項1に記載の方法。
  3. 前記ターゲットニューラルネットワークの1つまたは複数のパラメータを更新するステップが、
    ξ←τξ+(1-τ)θに従って前記ターゲットニューラルネットワークの前記1つまたは複数のパラメータの更新された値を決定するステップを含み、式中、ξが、前記ターゲットニューラルネットワークの前記パラメータを表し、θが、前記オンラインニューラルネットワークの前記パラメータを表し、τが、減衰率である、
    請求項1または2に記載の方法。
  4. 前記第1のエンコーダニューラルネットワークが、第1の残差ニューラルネットワークを含み、前記第2のエンコーダニューラルネットワークが、第2の残差ニューラルネットワークを含む
    請求項1に記載の方法。
  5. 前記オンラインニューラルネットワークおよび前記ターゲットニューラルネットワークがそれぞれ、それぞれの投影ニューラルネットワークを含み、前記方法が、各投影ニューラルネットワークによって、
    前記訓練データ項目の前記表現を受信することと、
    前記訓練データ項目の前記表現を処理して、前記表現の次元を低減させることと
    を含む動作を行うステップをさらに含む、
    請求項1まは4に記載の方法。
  6. 各投影ニューラルネットワークが、多層パーセプトロンを含む、請求項5に記載の方法。
  7. 前記予測ニューラルネットワークが、多層パーセプトロンを含む、請求項1に記載の方法。
  8. 前記オンラインニューラルネットワークおよび/または前記ターゲットニューラルネットワークの前記パラメータをランダム値に初期化するステップ
    をさらに含む、請求項1から7のいずれか一項に記載の方法。
  9. 第1のデータ項目変換を前記訓練データ項目に適用して、前記訓練データ項目の前記第1の変換されたビューを生成するステップと、
    第2のデータ項目変換を前記訓練データ項目に適用して、前記訓練データ項目の前記第2の変換されたビューを生成するステップであって、前記第2のデータ項目変換が、前記第1のデータ項目変換とは異なる、ステップと
    をさらに含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記オンラインニューラルネットワークの1つまたは複数のパラメータを更新するステップが、
    前記ターゲット出力の前記予測を正規化するステップ、および
    前記ターゲット出力の前記正規化された予測と前記ターゲット出力との間の二乗誤差を最小化するステップ
    を含む、請求項1から9のいずれか一項に記載の方法。
  11. 複数の訓練データ項目を含むバッチ内の各訓練データ項目について、前記ターゲットニューラルネットワークを用いて前記訓練データ項目の前記第1の変換されたビューを処理する動作、および前記オンラインニューラルネットワークを用いて前記訓練データ項目の前記第2の変換されたビューを処理する動作、次いで、前記オンラインニューラルネットワークの前記1つまたは複数のパラメータを更新する動作、および前記ターゲットニューラルネットワークの前記1つまたは複数のパラメータを更新する動作を反復的に行うステップをさらに含む、請求項1から10のいずれか一項に記載の方法。
  12. データ項目を処理するコンピュータ実装される方法であって、
    入力データ項目を訓練されたオンラインニューラルネットワークの一部に提供するステップであって、前記オンラインニューラルネットワークが、請求項1から11のいずれか一項に記載の方法のそれぞれの動作を行うことによって訓練済みである、ステップと、
    前記訓練されたオンラインニューラルネットワークの前記一部を使用して、前記入力データ項目を処理するステップと、
    前記訓練されたオンラインニューラルネットワークの前記一部から前記入力データ項目の表現を出力するステップと、
    前記入力データ項目の前記表現を処理するステップと
    を含
    法。
  13. 前記オンラインニューラルネットワークが、前記入力データ項目の前記表現を生成するように構成されている残差ニューラルネットワークを含む、請求項12に記載の方法。
  14. 前記入力データ項目の前記表現を処理するステップが、
    前記入力データ項目の前記表現を使用して、前記入力データ項目を分類するステップを含む、請求項12まは13に記載の方法。
  15. 前記訓練データ項目が、訓練画像を含み、前記入力データ項目が入力画像を含む、請求項12ら14のいずれか一項に記載の方法。
  16. 前記訓練データ項目が、画像を含み、前記方法が、前記訓練されたオンラインニューラルネットワークのエンコーダニューラルネットワークを使用して、入力画像のピクセルの表現を生成するステップと、前記表現を使用して、画像処理タスクを行うステップとをさらに含む、請求項1から11のいずれか一項に記載の方法。
  17. 1つまたは複数のコンピュータと、命令を記憶した1つまたは複数のストレージデバイスとを備えるシステムであって、前記命令が、前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1から16のいずれか一項に記載のそれぞれの方法を行わせる、システム。
  18. コンピュータプログラムであって、前記プログラムが、1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、請求項1から16のいずれか一項に記載のそれぞれの方法を行わせる、コンピュータプログラム。
JP2022560500A 2020-06-05 2021-06-04 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 Active JP7494316B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024082493A JP2024110969A (ja) 2020-06-05 2024-05-21 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063035583P 2020-06-05 2020-06-05
US63/035,583 2020-06-05
US202063039343P 2020-06-15 2020-06-15
US63/039,343 2020-06-15
PCT/EP2021/065071 WO2021245277A1 (en) 2020-06-05 2021-06-04 Self-supervised representation learning using bootstrapped latent representations

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024082493A Division JP2024110969A (ja) 2020-06-05 2024-05-21 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習

Publications (2)

Publication Number Publication Date
JP2023527510A JP2023527510A (ja) 2023-06-29
JP7494316B2 true JP7494316B2 (ja) 2024-06-03

Family

ID=76375056

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022560500A Active JP7494316B2 (ja) 2020-06-05 2021-06-04 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習
JP2024082493A Pending JP2024110969A (ja) 2020-06-05 2024-05-21 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024082493A Pending JP2024110969A (ja) 2020-06-05 2024-05-21 ブートストラッピングされた潜在表現を使用する自己教師付き表現学習

Country Status (7)

Country Link
US (1) US20210383225A1 (ja)
EP (1) EP4111376A1 (ja)
JP (2) JP7494316B2 (ja)
KR (1) KR20220148274A (ja)
CN (1) CN115427970A (ja)
CA (1) CA3174279A1 (ja)
WO (1) WO2021245277A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US12106549B2 (en) * 2021-11-12 2024-10-01 Siemens Healthineers Ag Self-supervised learning for artificial intelligence-based systems for medical imaging analysis
CN114299361A (zh) * 2021-12-27 2022-04-08 北京达佳互联信息技术有限公司 视频质量确定模型的训练方法、视频推荐方法及装置
CN114419395A (zh) * 2022-01-20 2022-04-29 江苏大学 基于中间位置编码的在线目标检测模型训练方法
CN114863348B (zh) * 2022-06-10 2024-08-23 西安电子科技大学 基于自监督的视频目标分割方法
WO2023244567A1 (en) * 2022-06-13 2023-12-21 Rensselaer Polytechnic Institute Self-supervised representation learning with multi-segmental informational coding
CN115186720B (zh) * 2022-09-07 2023-01-06 中国科学技术大学 预训练模型、无线感知模型的训练方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055259A (ja) 2016-09-27 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019528511A (ja) 2016-11-22 2019-10-10 三菱電機株式会社 ニューロンネットワークをトレーニングする方法及び能動学習システム
JP2019220104A (ja) 2018-06-22 2019-12-26 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム
WO2020110775A1 (ja) 2018-11-30 2020-06-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055259A (ja) 2016-09-27 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019528511A (ja) 2016-11-22 2019-10-10 三菱電機株式会社 ニューロンネットワークをトレーニングする方法及び能動学習システム
JP2019220104A (ja) 2018-06-22 2019-12-26 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム
WO2020110775A1 (ja) 2018-11-30 2020-06-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SOHN, Kihyuk et.al.,"FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence",arXiv [online],2020年01月21日,[2023年10月19日検索],インターネット<URL:https://arxiv.org/abs/2001.07685v1>, arXiv:2001.07685v1
TARVAINEN, Antti et.al.,"Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results",arXiv [online],2018年04月16日,[2023年10月19日検索],インターネット<URL:https://arxiv.org/abs/1703.01780v6>, arXiv:1703.01780v6

Also Published As

Publication number Publication date
US20210383225A1 (en) 2021-12-09
CA3174279A1 (en) 2021-12-09
CN115427970A (zh) 2022-12-02
KR20220148274A (ko) 2022-11-04
JP2024110969A (ja) 2024-08-16
JP2023527510A (ja) 2023-06-29
WO2021245277A1 (en) 2021-12-09
EP4111376A1 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP7494316B2 (ja) ブートストラッピングされた潜在表現を使用する自己教師付き表現学習
US11361546B2 (en) Action recognition in videos using 3D spatio-temporal convolutional neural networks
US20230229919A1 (en) Learning to generate synthetic datasets for training neural networks
US12073304B2 (en) Classifying input examples using a comparison set
US11875269B2 (en) Large scale generative neural network model with inference for representation learning using adversarial training
CN110730970B (zh) 优化策略控制器的方法和系统
CN113039555B (zh) 在视频剪辑中进行动作分类的方法、系统及存储介质
US20230351203A1 (en) Method for knowledge distillation and model genertation
US20220237890A1 (en) Method and apparatus with neural network training
CN116210030A (zh) 基于半监督关键点的模型
US20220292765A1 (en) Fitting 3d primitives to a high-resolution point cloud
CN116997908A (zh) 用于分类类型任务的连续学习神经网络系统训练
CN118382878A (zh) 跨域图像扩散模型
WO2024081778A1 (en) A generalist framework for panoptic segmentation of images and videos
US20210383226A1 (en) Cross-transformer neural network system for few-shot similarity determination and classification
CN117377983A (zh) 具有卷积和注意力的机器学习模型的系统和方法
WO2023169696A1 (en) Training object discovery neural networks and feature representation neural networks using self-supervised learning
Storey et al. Atypical facial landmark localisation with stacked hourglass networks: a study on 3D facial modelling for medical diagnosis
WO2024184457A1 (en) Adaptive systems including pre-trained neural networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240522

R150 Certificate of patent or registration of utility model

Ref document number: 7494316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150