JP7222429B2 - データ選択方法、データ選択装置及びプログラム - Google Patents

データ選択方法、データ選択装置及びプログラム Download PDF

Info

Publication number
JP7222429B2
JP7222429B2 JP2021536513A JP2021536513A JP7222429B2 JP 7222429 B2 JP7222429 B2 JP 7222429B2 JP 2021536513 A JP2021536513 A JP 2021536513A JP 2021536513 A JP2021536513 A JP 2021536513A JP 7222429 B2 JP7222429 B2 JP 7222429B2
Authority
JP
Japan
Prior art keywords
data
clusters
data set
labeled
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021536513A
Other languages
English (en)
Other versions
JPWO2021019681A1 (ja
Inventor
俊介 塚谷
和彦 村崎
慎吾 安藤
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021019681A1 publication Critical patent/JPWO2021019681A1/ja
Application granted granted Critical
Publication of JP7222429B2 publication Critical patent/JP7222429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データ選択方法、データ選択装置及びプログラムに関する。
教師あり学習においては、目的とするタスクに応じたラベル付きデータが必要となるため、収集した大規模な画像データに対して、ラベル付与作業のコストを下げたいという要求がある。ラベル付与作業のコスト削減を目的とした技術の一つとして、全ての画像データにラベル付与を行うのではなく、データ全体の中から少数のデータ(サンプル)を選択してラベルを付与することで効率的に学習する能動学習がある。
能動学習では、少数のラベルありデータを用いてラベルなしデータの中から性能向上に対する寄与が高いサンプルがアルゴリズムによって選択(サンプリング)されて作業者に提示される。作業者が当該サンプルにラベルを付与して学習が行われることで、ランダムにサンプリングした場合よりも学習性能の向上が可能となる。
従来の能動学習では一度のサンプリングにつきサンプル数が一つであるため、畳み込みニューラルネットワーク(CNN)のバッチ学習に適応した、一度のサンプリングで複数のサンプルを取得できる手法が提案されている(非特許文献1)。
非特許文献1では、データを特徴空間に写像し、k-center問題の近似解法アルゴリズムを用いてサンプリングが行われる。複数のサンプルは特徴空間における全データ構造の性質を引き継いだ部分集合となるため、少数のデータであっても全データを用いたときに近い学習が可能となる。
Active Learning for Convolutional Neural Networks: A Core-Set Approach. O. Sener, S. Savarese. International Conference on Learning Representations (ICLR), 2018. Mathilde Caron, Piotr Bojanowski, Armand Joulin, and Matthijs Douze. "Deep Clustering for Unsupervised Learning of Visual Features." Proc. ECCV (2018).
しかしながら、上記方法には次のような問題点がある。
データを特徴空間に写像する際には特徴抽出器を用意する必要があるところ、多くの場合、深層学習フレームワークで用意されている学習済みモデルを特徴抽出器として用いられる。用意された学習済みモデルで使われるデータセットには、ImageNetデータセットの1000クラス分類などが用いられている。
そのため、目的とするタスクのデータの分類が、用意された学習済みモデルに使われるデータセットの分類内容と異なる場合には、目的とするタスクにとって有効な特徴を抽出することができない。
非特許文献1の手法では、サンプリングの際に特徴空間上でデータを参照するため、目的のタスクにとって効果のある特徴空間に写像する特徴抽出器を選択することがサンプリングにとって重要であるが、能動学習が取り扱うラベルなしデータにとって効果のある特徴抽出器を事前に評価することは困難である。
本発明は、上記の点に鑑みてなされたものであって、ラベルが付与されていないデータ集合の中から選択されるラベルの付与対象であって、目的のタスクに有効なデータを選択可能とすることを目的とする。
そこで上記課題を解決するため、ラベルが付与された第1のデータの集合に属するデータと、ラベルが付与されていない第2のデータの集合に属するデータとを、前記ラベルの種類よりも少なくとも1つ多い数のクラスタに分類する分類手順と、前記クラスタのうち、前記第1のデータを含まないクラスタからラベルの付与対象とする前記第2のデータを選択する選択手順と、をコンピュータが実行する。

ラベルが付与されていないデータ集合の中から選択されるラベルの付与対象であって、目的のタスクに有効なデータを選択可能とすることができる。
第1の実施の形態におけるデータ選択装置10のハードウェア構成例を示す図である。 第1の実施の形態におけるデータ選択装置10の機能構成例を示す図である。 第1の実施の形態におけるデータ選択装置10が実行する処理手順の一例を説明するためのフローチャートである。 第2の実施の形態におけるデータ選択装置10の機能構成例を示す図である。
以下、図面に基づいて本発明の実施の形態を説明する。
本実施の形態では、ラベルありデータ集合とラベル付与の候補となるラベルなしデータ集合の入力から、教師なし特徴表現学習の枠組みを用いて特徴抽出器が生成される。なお、ラベルありデータ集合のデータ数は、ラベルなしデータ集合のデータ数に比べて少ない。また、教師なし特徴表現学習とは、入力データに対して自動で生成できる教師信号を用いた自己教師あり学習によって、目的のタスクに有効な特徴抽出器を生成するものであり、Deep Clustering法などの手法がある(非特許文献2)。
教師なし特徴表現学習によって得られた特徴抽出器を用いて得られる、教師なし特徴表現学習において用いられた各ラベルありデータと各ラベルなしデータとのそれぞれの特徴に対して、クラスタリングが行われる。
クラスタリング結果として得られる各クラスタについて、所属するデータにラベルありデータが含まれるクラスタとラベルありデータが含まれないクラスタの2種類への分類が行われる。
上記の2種類の分類のうち、ラベルありデータが含まれない各クラスタから、それぞれサンプリングが行われ、ラベルを付与するデータが出力される。
目的とするタスクに対して有効な、ラベルをつけるべき、ラベルなしのデータについて考える。例えば、ラベルありのデータと同様の性質を有するラベルなしのデータにラベルを付与しても、目的とするタスクに有効とは言い難い。一方、ラベルありのデータと異なる性質を有している、ラベルなしのデータにラベルを付与することができれば、該データとラベルも用いて学習を行うことで、該性質を加味した識別を行うことができるよう学習できると想定される。
本実施の形態はそのようなラベルありのデータと異なる性質を有しているラベルなしのデータを選択することを目的としている。ラベルなしのデータの数はラベルありのデータの数よりも多いことを前述したが、実際に学習データとして用いるためのデータにラベルをつけるのは多量の稼働を要するため、ラベルなしのデータの数が大多数を占めると想定される。そのような大多数のデータから、ラベルを付与すべき、例えばラベルを付与することで推定の精度を上げることができるようなデータを抽出することを本実施の形態は目的とする。
上記方法によれば、任意の特徴表現学習手法を用いることが可能であり、学習済みモデルの用意を不要とすることができる。
図1は、第1の実施の形態におけるデータ選択装置10のハードウェア構成例を示す図である。図1のデータ選択装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
データ選択装置10での処理を実現するプログラムは、CD-ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従ってデータ選択装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
図2は、第1の実施の形態におけるデータ選択装置10の機能構成例を示す図である。図2において、データ選択装置10は、特徴抽出器生成部11及びサンプリング処理部12を有する。これら各部は、データ選択装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。
特徴抽出器生成部11は、ラベルありデータ集合A、ラベルなしデータ集合B、及び追加でラベルを与えるサンプル数Sを入力として、特徴抽出器を出力する。ラベルありデータ集合Aとは、ラベルが付与された画像データの集合をいう。ラベルなしデータ集合Bとは、ラベルが付与されていない画像データの集合をいう。
サンプリング処理部12は、ラベルありデータ集合A、ラベルなしデータ集合B、追加でラベルを与えるサンプル数S、及び特徴抽出器を入力として、ラベル付与対象データを選択する。
以下、データ選択装置10が実行する処理手順について説明する。図3は、第1の実施の形態におけるデータ選択装置10が実行する処理手順の一例を説明するためのフローチャートである。
ステップS101において、特徴抽出器生成部11は、ラベルありデータ集合A、ラベルなしデータ集合B、及び追加でラベルを与えるサンプル数Sを入力として、擬似ラベル生成処理を実行する。擬似ラベル生成処理において、特徴抽出器生成部11は、各データa∈A及び各データb∈Bに対して擬似ラベルを付与し、各データaに擬似ラベルが付与されたデータ集合A及び各データbに擬似ラベルが付与されたデータ集合Bを擬似データセットとして出力する。この際、特徴抽出器生成部11は、特徴抽出器の元となるCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)に各データa及び各データbのそれぞれを入力したときのそれぞれの中間特徴に基づいて、データ集合A及びデータ集合Bについてk-meansクラスタリングを行い、各データが所属するクラスタに対応する識別情報を、当該クラスタに属するデータに対して擬似ラベルとして付与する。なお、特徴抽出器生成部11は、最初のCNNのパラメータはランダムに初期化し、データ集合Aのデータ数とSとの和をk-meansクラスタリングにおけるクラスタ数として用いる。
続いて、特徴抽出器生成部11は、CNN学習処理を実行する(S102)。CNN学習処理において、特徴抽出器生成部11は、擬似データセットを入力としてCNNの学習を行う。この際、ラベルが付与されているデータaについても、擬似ラベルが使用された学習が行われる。
ステップS101及びS102は、学習終了条件が満たされるまで繰り返される(S103)。学習終了条件が満たされたか否かは、例えば、ステップS101及びS102の繰り返し回数が予め定義した反復回数に達したか否かにより判定されてもよいし、誤差関数の推移により判定されてもよい。学習終了条件が満たされると、特徴抽出器生成部11は、その時のCNNを特徴抽出器とし出力する。
このように、ステップS101~S103では、教師なし特徴表現学習が用いられて特徴抽出器が生成(学習)される。但し、擬似ラベルの生成方法は、上記の方法に限られない。
続いて、サンプリング処理部12は、特徴抽出処理を実行する(S104)。特徴抽出処理において、サンプリング処理部12は、特徴抽出器を用いてデータ集合Aの各データa及びデータ集合Bの各データbのそれぞれの特徴情報(画像特徴)を取得(抽出)する。すなわち、サンプリング処理部12は、データ集合Aの各データa及びデータ集合Bの各データbのそれぞれを順番に特徴抽出器に入力することで、特徴抽出器から出力される特徴情報をデータaごと及びデータbごとに取得する。なお、当該特徴情報は、ベクトル形式で表現されるデータである。
続いて、サンプリング処理部12は、クラスタリング処理を実行する(S105)。クラスタリング処理において、サンプリング処理部12は、各データaの特徴情報、各データbの特徴情報、及び追加でラベルを与えるサンプル数Sを入力として、特徴情報群についてk-meansクラスタリングを行い、クラスタ情報(各データの特徴情報及び各データのクラスタへの分類結果を含む情報)を出力する。この際、データ集合Aのデータ数とサンプリング数Sとの和がk-meansのクラスタ数とされる。すなわち、データ集合Aのデータ数よりも少なくとも1つ多い数のクラスタに各データa及び各データbが分類される。
続いて、サンプリング処理部12は、クラスタ選択処理を実行する(S106)。クラスタ選択処理において、サンプリング処理部12は、データ集合A、データ集合B及びクラスタ情報を入力とし、S個のサンプル選択用クラスタを出力する。
ステップS105のクラスタリング処理におけるk-meansクラスタリングによって生成されたクラスタは、データa∈A及びデータb∈Bが含まれるクラスタと、データbのみが含まれるクラスタとに分類される。
データaが含まれるクラスタは、データaを用いた学習によって識別が可能なデータの集合であると考えられるため、このクラスタに含まれるデータbをサンプルとして選んでも学習効果が低いと考えられる。
一方、データaが含まれずデータbのみが含まれるクラスタは、データaを用いた学習では識別が困難なデータが含まれると考えられるため、このクラスタに含まれるデータbはサンプルとして学習効果が高いと考えられる。
そこで、データbのみが含まれる各クラスタ(すなわち、データaが含まれない各クラスタ)から一つずつサンプルを選択することになるが、データbのみが含まれるクラスタ数はS以上となるため、サンプリング処理部12は、ステップS105において、サンプリング対象のクラスタの選択を行う。
具体的には、特徴情報{x i=1とクラスタラベル{y│y∈{1,・・・,k}} i=1とにおいて、クラスタyの中心(クラスタyに属する各データの特徴情報群の中心)をu=1/nΣi:yi=yとしたときに(但し、nは、クラスタyに属するデータ数)、サンプリング処理部12は、下記式によってクラスタにおけるスコア値tを計算する。
Figure 0007222429000001
サンプリング処理部12は、スコア値tが相対的に小さいクラスタから順にS個のクラスタをサンプル選択用クラスタとして選択する。スコア値tは分散であるため、スコア値tが低いクラスタは、分散が小さいクラスタである。このような分散が小さいクラスタに属するデータb群は、前述したように、ラベルありのデータ群には存在していない若しくは小さくしか特徴を体現できていない特徴を有するデータの集合であると想定されるため、このようなクラスタから選択されるデータbは、影響力が大きいと考えられるからである。
続いて、サンプリング処理部12は、サンプル選択処理を実行する(S107)。サンプル選択処理において、サンプリング処理部12は、S個のサンプル選択用クラスタのそれぞれに対してサンプリングを行う。例えば、サンプリング処理部12は、サンプル選択用クラスタごとに、クラスタの中心uからの距離(ベクトル間の距離)が最小である特徴情報に係るデータbをサンプルとして選択する。クラスタの中心のデータは、該クラスタに共通する特徴が最も強く表れているデータと考えられる。また、該クラスタに属するデータの平均とも見ることができるため、ノイズリダクションも期待できる。サンプリング処理部12は、S個のクラスタのそれぞれから選択された各サンプル(データb)をラベル付与対象データとして出力する。
上述したように、第1の実施の形態によれば、ラベルありデータ集合A及びラベルなしデータ集合Bのみから自動生成可能な擬似ラベルを各データに付与して学習した特徴抽出器を用いて各データの特徴情報が取得(抽出)ため、目的のタスクに有効な特徴空間に基づいたサンプリングが行われ、その結果として、ラベルが付与されていないデータ集合の中から選択されるラベルの付与対象であって、目的のタスクに有効なデータを選択可能とすることができる。
また、事前に学習済みモデルを用意することなく特徴空間上でサンプリングすることが可能となるため、任意の画像データに対してその目的タスクに合わせた特徴抽出器の選択を省くことができ、また少数のサンプルへのラベル付けで高い学習性能を得られることからラベル付与のコストを下げることができる。
また、本実施の形態では、サンプリングにおいて、ラベルなしデータのみが含まれるクラスタが選択され、クラスタ中心に最も近いデータが選択する手法が適用されるため、特徴空間上においてラベルありデータではカバーできない範囲のデータを選択することが可能となり、効率的なラベル付与作業のコスト削減を可能とすることができる。
次に、第2の実施の形態について説明する。第2の実施の形態では第1の実施の形態と異なる点について説明する。第2の実施の形態において特に言及されない点については、第1の実施の形態と同様でもよい。
図4は、第2の実施の形態におけるデータ選択装置10の機能構成例を示す図である。第2の実施の形態では、特徴抽出器生成部11による擬似ラベルの生成方法が第1の実施の形態と異なる。当該生成方法の違いに起因して、第2の実施の形態では、特徴抽出器生成部11に対して追加でラベルを与えるサンプル数Sが入力されなくてよい。
例えば、特徴抽出器生成部11は、入力される各データ(各データa及び各データb)の画像がランダムに回転されている場合には、各データの画像の回転方向を各データの擬似ラベルとして用いてもよい。又は、特徴抽出器生成部11は、各データ(各データa及び各データb)の画像がパッチに分割されてランダムに入力される場合には、各データのパッチの正しい順列を各データの擬似ラベルとして用いてもよい。又は、特徴抽出器生成部11は、公知の他の方法によって、各データの擬似ラベルを生成してもよい。
なお、上記各実施の形態において、特徴抽出器生成部11は、生成部の一例である。サンプリング処理部12は、取得部、分類部及び選択部の一例である。データaは、第1のデータの一例である。データbは、第2のデータの一例である。
以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 データ選択装置
11 特徴抽出器生成部
12 サンプリング処理部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
B バス

Claims (8)

  1. ラベルが付与された第1のデータの集合に属するデータと、ラベルが付与されていない第2のデータの集合に属するデータとを、前記ラベルの種類よりも少なくとも1つ多い数のクラスタに分類する分類手順と、
    前記クラスタのうち、前記第1のデータを含まないクラスタからラベルの付与対象とする前記第2のデータを選択する選択手順と、
    をコンピュータが実行するデータ選択方法。
  2. 前記第1のデータの集合と前記第2のデータの集合とに基づいて、教師なし特徴表現学習を用いて特徴抽出器を生成する生成手順と、
    それぞれの記第1のデータ及びそれぞれの記第2のデータについて、前記特徴抽出器を用いて特徴情報を取得する取得手順と、
    を前記コンピュータが実行し、
    前記分類手順は、前記特徴情報に基づいて前記第1のデータの集合及び前記第2のデータの集合をクラスタに分類する、
    ことを特徴とする請求項1記載のデータ選択方法。
  3. 前記選択手順は、前記特徴情報の分散が相対的に小さいクラスタからラベルの付与対象とする前記第2のデータを選択する、
    ことを特徴とする請求項2載のデータ選択方法。
  4. 前記選択手順は、前記第1のデータを含まないクラスタにおいて、当該クラスタの中心からの距離が最小である前記特徴情報に係る前記第2のデータを選択する、
    ことを特徴とする請求項2又は3記載のデータ選択方法。
  5. ラベルが付与された第1のデータの集合とラベルが付与されていない第2のデータの集合とに基づいて、前記第2のデータの集合のなかからラベルを付与する対象を選択するデータ選択装置であって、
    前記第1のデータの集合に属するデータと、前記第2のデータの集合に属するデータとを、前記ラベルの種類よりも少なくとも1つ多い数のクラスタに分類する分類部と、
    前記クラスタのうち、前記第1のデータを含まないクラスタからラベルの付与対象とする前記第2のデータを選択する選択部と、
    をコンピュータが実行するデータ選択装置。
  6. 前記データ選択装置は、
    前記第1のデータの集合と前記第2のデータの集合とに基づいて、教師なし特徴表現学習を用いて特徴抽出器を生成する生成部と、
    それぞれの記第1のデータ及びそれぞれの記第2のデータについて、前記特徴抽出器を用いて特徴情報を取得する取得部と、
    を有し、
    前記分類部は、前記特徴情報に基づいて前記第1のデータの集合及び前記第2のデータの集合をクラスタに分類する、
    ことを特徴とする請求項5記載のデータ選択装置。
  7. 前記選択部は、前記特徴情報の分散が相対的に小さいクラスタからラベルの付与対象とする前記第2のデータを選択する、
    ことを特徴とする請求項6記載のデータ選択装置。
  8. 請求項1乃至4いずれか一項記載のデータ選択方法をコンピュータに実行させることを特徴とするプログラム。
JP2021536513A 2019-07-30 2019-07-30 データ選択方法、データ選択装置及びプログラム Active JP7222429B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/029807 WO2021019681A1 (ja) 2019-07-30 2019-07-30 データ選択方法、データ選択装置及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021019681A1 JPWO2021019681A1 (ja) 2021-02-04
JP7222429B2 true JP7222429B2 (ja) 2023-02-15

Family

ID=74229395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021536513A Active JP7222429B2 (ja) 2019-07-30 2019-07-30 データ選択方法、データ選択装置及びプログラム

Country Status (3)

Country Link
US (1) US20220335085A1 (ja)
JP (1) JP7222429B2 (ja)
WO (1) WO2021019681A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120095943A1 (en) 2010-10-15 2012-04-19 Yahoo! Inc. System for training classifiers in multiple categories through active learning
US20160275411A1 (en) 2015-03-16 2016-09-22 Xerox Corporation Hybrid active learning for non-stationary streaming data with asynchronous labeling
US20180032901A1 (en) 2016-07-27 2018-02-01 International Business Machines Corporation Greedy Active Learning for Reducing User Interaction
WO2018079020A1 (ja) 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置および情報処理方法
WO2018116921A1 (ja) 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210604B1 (en) * 2013-12-23 2021-12-28 Groupon, Inc. Processing dynamic data within an adaptive oracle-trained learning system using dynamic data set distribution optimization
US20160232441A1 (en) * 2015-02-05 2016-08-11 International Business Machines Corporation Scoring type coercion for question answering
US9767565B2 (en) * 2015-08-26 2017-09-19 Digitalglobe, Inc. Synthesizing training data for broad area geospatial object detection
US9911033B1 (en) * 2016-09-05 2018-03-06 International Business Machines Corporation Semi-supervised price tag detection
US20180096261A1 (en) * 2016-10-01 2018-04-05 Intel Corporation Unsupervised machine learning ensemble for anomaly detection
US11482307B2 (en) * 2017-03-02 2022-10-25 Drexel University Multi-temporal information object incremental learning software system
WO2019051359A1 (en) * 2017-09-08 2019-03-14 The General Hospital Corporation SYSTEM AND METHOD FOR AUTOMATICALLY LABELING AND ANNOUNTING NON-STRUCTURED MEDICAL DATA SETS
US10679129B2 (en) * 2017-09-28 2020-06-09 D5Ai Llc Stochastic categorical autoencoder network
US10628527B2 (en) * 2018-04-26 2020-04-21 Microsoft Technology Licensing, Llc Automatically cross-linking application programming interfaces
US11238308B2 (en) * 2018-06-26 2022-02-01 Intel Corporation Entropic clustering of objects
US10635979B2 (en) * 2018-07-20 2020-04-28 Google Llc Category learning neural networks
US11321629B1 (en) * 2018-09-26 2022-05-03 Intuit Inc. System and method for labeling machine learning inputs
US10810513B2 (en) * 2018-10-25 2020-10-20 The Boeing Company Iterative clustering for machine learning model building
US11455570B2 (en) * 2019-01-15 2022-09-27 Ebay Inc. Machine learning-based infrastructure anomaly and incident detection using multi-dimensional machine metrics
US11295239B2 (en) * 2019-04-17 2022-04-05 International Business Machines Corporation Peer assisted distributed architecture for training machine learning models
US11562236B2 (en) * 2019-08-20 2023-01-24 Lg Electronics Inc. Automatically labeling capability for training and validation data for machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120095943A1 (en) 2010-10-15 2012-04-19 Yahoo! Inc. System for training classifiers in multiple categories through active learning
US20160275411A1 (en) 2015-03-16 2016-09-22 Xerox Corporation Hybrid active learning for non-stationary streaming data with asynchronous labeling
US20180032901A1 (en) 2016-07-27 2018-02-01 International Business Machines Corporation Greedy Active Learning for Reducing User Interaction
WO2018079020A1 (ja) 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置および情報処理方法
WO2018116921A1 (ja) 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体

Also Published As

Publication number Publication date
WO2021019681A1 (ja) 2021-02-04
US20220335085A1 (en) 2022-10-20
JPWO2021019681A1 (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
CN109948478B (zh) 基于神经网络的大规模非均衡数据的人脸识别方法、系统
Wang et al. Transferring rich feature hierarchies for robust visual tracking
Ilyas et al. Query-efficient black-box adversarial examples (superceded)
US11915104B2 (en) Normalizing text attributes for machine learning models
CA2843343C (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
Bissoto et al. Deep-learning ensembles for skin-lesion segmentation, analysis, classification: RECOD titans at ISIC challenge 2018
US8606022B2 (en) Information processing apparatus, method and program
RU2693916C1 (ru) Распознавание символов с использованием иерархической классификации
US9734435B2 (en) Recognition of hand poses by classification using discrete values
US11823453B2 (en) Semi supervised target recognition in video
US10867246B1 (en) Training a neural network using small training datasets
CN111723856B (zh) 一种图像数据处理方法、装置、设备及可读存储介质
WO2021034399A1 (en) Negative sampling algorithm for enhanced image classification
CN116670687A (zh) 用于调整训练后的物体检测模型以适应域偏移的方法和系统
Solé et al. Evaluation of random forests on large-scale classification problems using a bag-of-visual-words representation
Weber et al. Automated labeling of electron microscopy images using deep learning
US11928182B1 (en) Artificial intelligence system supporting semi-supervised learning with iterative stacking
Malygina et al. GANs' N Lungs: improving pneumonia prediction
JP7222429B2 (ja) データ選択方法、データ選択装置及びプログラム
Kim et al. Sequential cross attention based multi-task learning
CN113344189B (zh) 一种神经网络的训练方法、装置、计算机设备及存储介质
Keyrouz et al. Chemical structure recognition and prediction: A machine learning technique
JPWO2019123642A1 (ja) 画像認識システム、方法およびプログラム、並びにパラメータ学習システム、方法およびプログラム
EP4128015A1 (en) Class agnostic repetition counting in video(s) utilizing a temporal self-similarity matrix

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7222429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150