JP6741357B2 - マルチ関連ラベルを生成する方法及びシステム - Google Patents

マルチ関連ラベルを生成する方法及びシステム Download PDF

Info

Publication number
JP6741357B2
JP6741357B2 JP2019504995A JP2019504995A JP6741357B2 JP 6741357 B2 JP6741357 B2 JP 6741357B2 JP 2019504995 A JP2019504995 A JP 2019504995A JP 2019504995 A JP2019504995 A JP 2019504995A JP 6741357 B2 JP6741357 B2 JP 6741357B2
Authority
JP
Japan
Prior art keywords
label
vector
association
labels
updated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019504995A
Other languages
English (en)
Other versions
JP2019527440A (ja
Inventor
堀 貴明
貴明 堀
堀 智織
智織 堀
渡部 晋治
晋治 渡部
ハーシェイ、ジョン
ハーシャム、ブレット
、ジョナサン ル・ルー
、ジョナサン ル・ルー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2019527440A publication Critical patent/JP2019527440A/ja
Application granted granted Critical
Publication of JP6741357B2 publication Critical patent/JP6741357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、包括的には、ラベル分類の方法及びシステムに関し、より詳細には、マルチラベル分類の方法及びシステムに関する。
近年、デジタルカメラ、パーソナルコンピューター及びスマートフォン等の電子デバイスを用いて、人間の手によって種々のタイプのデータを容易に生成することができる。これらのデータは、例えば、画像、音声信号、ビデオ、テキスト文書等であり、これらは、いくつかのファイル名と共に記憶媒体に書き込まれる。しかしながら、そのようなデータファイルを何らかの関心トピックに従って分類することは容易ではない。何故ならば、各データファイルのコンテンツを耳と目とによってチェックする必要があるためである。これは、大量のデータのためには時間が掛かるとともに労力を要する。
この種の問題を解決するために、データを自動的にアノテートする方法が有用である。1つの従来の手法は、1つのラベルを各データインスタンスに割り当てることである。例えば、大統領選挙を説明するテキスト文書は、ラベル「政治」でアノテートすることができる。バスケットボールの試合を報告する別の文書は、ラベル「スポーツ」でアノテートすることができる。これは、単一ラベル分類手法であり、その目標は、所定のラベルセットから、データインスタンスに対する最も関連度の高いラベルを推測することである。この手順を自動化方法において実行するために、人間の手でアノテートされたラベルとデータインスタンスとの対のセットでトレーニングされた分類器を用いて、新たなデータインスタンスごとに適切なラベルを予測する。
しかしながら、この手法は、現実世界のデータを有意なラベルでアノテートするのには十分ではない。何故ならば、多くのデータは、複数のトピック又はカテゴリーに関連することが多いためである。
例えば、ヘルスケアシステムについてのニュース記事は、2つのトピック、「医療問題」及び「政治」に関連する場合がある。さらに、異なる細分度を有する複数のラベルを1つのインスタンスに割り当てる可能性もあり、例えば、ボストンセルティックス対シカゴブルズのバスケットボールの試合についての記事は、複数のラベル、「スポーツ」、「バスケットボール」、「NBA」及び「ボストンセルティックス」でアノテートすることができる。このように、複数のラベルでのアノテーションは、単一のラベルでのアノテーションよりも多くの情報を含む。
複数のラベルを各データインスタンスに割り当てることは、マルチラベル分類問題であると考えられ、このマルチラベル分類問題は、単一ラベル分類問題よりも複雑である。何故ならば、各インスタンスについて複数のラベルを選択する必要があるものの、選択すべきラベルの個数は未知であるためである。
マルチラベル分類に対する基本的な手法は、バイナリ関連度(BR:binary relevance)方法である。M個の所定のラベルのセットが割り当てられるものとすると、問題は、M個の独立バイナリ分類問題のセットに変換され、ここで、ラベルごとに1つの分類器がトレーニングされ、対応するラベルがデータインスタンスに関連しているか否かを予測するのに用いられる。そのような複数のバイナリ分類器をデータインスタンスに適用することによって、対応する分類器が関連していると予測したラベルのセットを取得することが可能である。しかしながら、これらのバイナリ分類器は、基本的には独立してトレーニングされるとともに適用される。それゆえ、ラベルが互いに相関していてもラベル間依存は無視される。例えば、「スポーツ」と「野球」とは密接に相関しているが、「スポーツ」と「大統領選挙」とは密接に相関しているわけではない。この種の知識は、通常、マルチラベル分類の精度を改善するのに役立つ。
分類器設計又はトレーニングに用いられる目的関数においてラベル間依存を考慮するためにいくつかの方法が提案されている。
図1は、関連技術の分器類チェーン(CC)方法100を示しており、この図において、M個のバイナリ分類器のセットが1つのチェーンとして設計されている。
CC方法100は、図に示すように、入力データ101、特徴抽出器102、分類器103〜106として図示される複数のバイナリ分類器を利用する。
入力データインスタンス101が与えられると、特徴抽出器102によって特徴ベクトルXが抽出され、特徴ベクトルXは、第1のバイナリ分類器103にフィードされる。第1のバイナリ分類器103によって第1のラベルに対するバイナリ関連度rが推測され、rは、Xとともに第2のバイナリ分類器104にフィードされる。第2のバイナリ分類器104によって第2のラベルに対するバイナリ関連度rが推測され、rは、Xとともに第3のバイナリ分類器105にフィードされる。第3のバイナリ分類器105によって第3のラベルに対するバイナリ関連度rが推測される。
このようにして、バイナリ分類プロセスが最後の第Mの分類器106まで繰り返される。また、この方法は、ラベル間依存を考慮し、ラベル間依存は、チェーンにおける先行の分類器によって与えられるが、この手法は、2段階トレーニングプロセスを必要とせず、後続する分類器をトレーニングするのにグラウンドトゥルースバイナリ関連度を用いることができる。CC方法は、マルチラベル分類方法の評価に用いられるほとんどのメトリックにおいて、単純なBR方法及び積層BR方法よりも優れている。
しかしながら、CC方法は、推測フレーズにおいて多数のMステップバイナリ分類を必要とし、先行する分類器によって与えられたバイナリ分類結果が後続する分類器にフィードされる必要がある。これらのステップは並列化することができない。何故ならば、分類器ごとの入力ベクトルは、チェーンにおける先行する分類器の出力に依存するためである。Mの数が大きい場合、マルチラベル分類の計算時間が長くなる。
CC方法は、ラベル間依存が直接対処されるので効果的であるように見える。しかしながら、この方法は、所定のラベルの数が大きい場合、推測フェーズにおいて多くの反復ステップを必要とする。これは、マルチラベル分類について所定のラベルの大きなセットにおける種々のラベルで各データをアノテートするためには、大きな制限である。
したがって、マルチラベル分類を、推測フェーズにおけるより少ない反復ステップと、より安価なコストとで実行する必要がある。
本発明は、包括的には、画像、音声信号、及びテキスト文書等の未加工データを、データのコンテンツに関連したラベルのセットでアノテートすることに関する。
本発明のいくつかの実施形態は、マルチ関連ラベルを生成する方法によって、関心のターゲットデータを大きなデータセットから迅速に発見することができ、多くの未加工データを自動的に記憶して構造化データフォーマットにすることができ、そして、インテリジェントシステムを構築することができ、これにより、所与の画像、音声、及び/又は文書データに従ってユーザーにサービスが提供されるという認識に基づいている。上記マルチ関連ラベルを生成する方法は、特徴抽出器によって入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、ラベル予測器によって、特徴ベクトルに基づいて関連度スコア(relevant scores)を有する関連ラベルを含む関連ベクトルを求めるステップと、先行のラベル選択において選択されていた事前選択ラベルをマスキングすることによってバイナリマスキングベクトルを更新するステップと、関連ラベルから事前選択ラベルを除外するように関連ラベルベクトルが更新されるように、更新されたバイナリマスキングベクトルを関連ベクトルに適用するステップと、更新された関連ラベルベクトルの関連度スコアに基づいて更新された関連ラベルベクトルから関連ラベルを選択するステップとを含む。
したがって、本発明によるいくつかの実施形態において、マルチラベル分類の方法及びシステムの使用により、中央処理装置(CPU)使用量、電力消費及び/又はネットワーク帯域幅使用量を低減することができる。
本発明の実施形態は、マルチラベル分類の方法及びシステムを提供し、これにより、所定のラベルの大きなセットを用いる場合でも、短い計算時間で高い予測精度が達成される。
さらに、本発明の別の実施形態は、マルチ関連ラベルを生成するシステムであって、入力デバイスから入力データを受信する入力インターフェースと、入力インターフェース、及びアルゴリズムモジュールのコードを記憶するメモリに接続されたプロセッサとを備え、プロセッサは、入力データに応答して、アルゴリズムモジュールの命令に従って複数のステップを実行し、各ステップは、特徴抽出器によって入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、ラベル予測器によって、特徴ベクトルに基づいて関連度スコアを有する関連ラベルを含む関連ベクトルを求めるステップと、先行のラベル選択において選択されていた事前選択ラベルをマスキングすることによってバイナリマスキングベクトルを更新するステップと、関連ラベルから事前選択ラベルを除外するように関連ラベルベクトルが更新されるように、更新されたバイナリマスキングベクトルを関連ベクトルに適用するステップと、更新された関連ラベルベクトルの関連度スコアに基づいて更新された関連ラベルベクトルから関連ラベルを選択するステップとを含む、システムを開示する。
マルチラベル分類の関連技術の分類器チェーン(CC)方法のブロック図である。 本発明の実施形態によるマルチラベル分類の方法のブロック図である。 本発明の実施形態によるマルチラベル分類のシステムのブロック図である。 本発明の実施形態によって用いられる、双方向長期短期記憶(BLSTM:bidirectional long short-term memory)再帰型ニューラルネットワークの概略図である。 本発明のいくつかの実施形態によるマルチラベル分類システムのブロック図である。 或る所定のタスクについてマルチラベル分類を実行することによって得られた評価結果の図である。
本発明の様々な実施形態について、図面を参照して以下に説明する。図面は縮尺どおり描かれておらず、類似の構造又は機能の要素は、図面全体にわたって同様の参照符号によって表されることに留意されたい。図面は、本発明の特定の実施形態の説明を容易にすることのみを意図することにも留意されたい。図面は、本発明の網羅的な説明として意図されるものでもなければ、本発明の範囲を限定するものとして意図されるものでもない。加えて、本発明の特定の実施形態と併せて説明される態様は、必ずしもその実施形態に限定されず、本発明の任意の他の実施形態において実施することができる。
本発明のいくつかの実施形態は、既に生成されたラベルの関連度スコアをマスキングすることによって、同じデータインスタンスについて同じラベルが再度生成されることを抑制することが可能であるという認識に基づいている。
ラベル間依存は、CC方法における場合のように直接考慮されるが、所定のラベル全てにわたる反復は必要とされない。何故ならば、分類器は、各ラベルのバイナリ関連度ではなく、1つの関連ラベルを予測するためである。したがって、反復の数は、データインスタンスに割り当てられたラベルの数のみである。
マルチラベル分類システムは、カメラ、画像スキャナー、マイクロフォン、ハードディスクドライブ及びコンピューターネットワーク等の入力デバイスから入力データを受信する。システムは、この入力データについて特徴抽出モデル及びラベル生成モデルを用いてマルチラベル分類方法を実行し、生成されたラベルを、ハードディスクドライブ、ディスプレイモニター、及びコンピューターネットワーク等の出力デバイスに出力する。
本発明のいくつかの実施形態は、マルチラベル分類の方法及びシステムを提供する。
図2は、本発明のいくつかの実施形態によるマルチラベル分類について、マルチラベル分類方法200のブロック図を示している。
本発明のいくつかの実施形態において、マルチラベル分類方法200は、入力データ201、特徴抽出器202、ラベル予測器203、バイナリマスキング204及びラベル選択器205を利用して、出力ラベル206を提供する。
マルチラベル分類方法200は、特徴抽出器202、ラベル予測器203、バイナリマスキング204及びラベル選択器205を含むアルゴリズムモジュールを用いて実行することができる。アルゴリズムモジュール202〜205は、プログラムコードとしてメモリ又は記憶装置に記憶することができ、マルチラベル分類アルゴリズムモジュール250(図5に示される)と称される場合がある。方法200がメモリ及び記憶装置に接続されたプロセッサを用いて実行されるとき、アルゴリズムモジュールは、プロセッサに、このアルゴリズムモジュールの命令に従って方法200を実行させる。方法200は、特徴抽出器によって入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、ラベル予測器によって、特徴ベクトルに基づいて関連度スコアを有する関連ラベルを含む関連ベクトルを求めるステップと、先行のラベル選択において選択されていた事前選択ラベルをマスキングすることによってバイナリマスキングベクトルを更新するステップと、関連ラベルから事前選択ラベルを除外するように関連ラベルベクトルが更新されるように、更新されたバイナリマスキングベクトルを関連ベクトルに適用するステップと、更新された関連ラベルベクトルの関連度スコアに基づいて更新された関連ラベルベクトルから関連ラベルを選択するステップとを実行する。
本発明のいくつかの実施形態において、方法200は、マルチラベル分類を、ラベルを反復的に生成することによって実行する。方法200は、(i)入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、(ii)上記特徴ベクトル及び先行して生成されたラベルに対する、所定のラベルセット内の各ラベルの関連度スコア又は確率を計算するステップと、(iii)先行の反復において生成されたラベルの関連度スコア又は確率をマスキングするステップであって、ただし、これらのスコア又は確率は、小さな定数、例えば0に設定することができる、ステップと、(iv)最も高いスコア又は確率を有するラベルを選択するステップと、(v)選択されたラベルを生成されたラベルのセットに追加するステップと、(vi)「ラベルがこれ以上生成されない」ことを示す特別なラベルがステップ(iv)において選択されるまでステップ(ii)に戻るステップとを含むことができる。
本発明によるいくつかの実施形態において、マルチラベル分類システム500は、入力デバイスから入力データを受信し、この入力データについて特徴抽出モデル及びラベル生成モデルを用いてマルチラベル分類方法を実行し、生成されたラベルを出力デバイスに出力することができる。
方法200及びシステム500は、現行技術水準の方法と比較して、ラベル間依存を考慮することによる、より高いラベリング精度と、より少ない反復数での高速な推測プロセスとの双方を達成することができる。
さらに、本発明のいくつかの実施形態によるマルチラベル分類器装置は、再帰型ニューラルネットワークとして設計することができる。この場合、マルチラベル分類器装置は、各反復ステップにおいて、入力特徴と先行して生成されたラベルとの双方について最も関連度の高いラベルを予測する。
マルチラベル分類方法200は、以下で詳述される。マルチラベル分類について、所定のラベルセットL={l│m=1,...,M}を有するものとし、ここで、Mは、Lにおけるラベルの数を示す。
入力データインスタンス201が、特徴抽出器202に与えられ、データインスタンスは、データインスタンスの顕著な特徴を含む、D次元特徴ベクトル
Figure 0006741357
に変換される。次いで、特徴ベクトルxは、ラベル予測器203に与えられ、ラベル予測器203は、特徴ベクトル及び先行して生成されたラベルを用いて各ラベルの関連確率(関連度スコア)を計算する。次いで、ラベル予測器は、関連確率のM次元ベクトルを出力する。本発明のいくつかの実施形態において、ラベル予測器203は、関連度スコアを、再帰型ニューラルネットワークを用いて計算することができる。
バイナリマスキングモジュール204は、関連確率ベクトルをマスキングし、ここで、先行して生成されたラベルに対応するベクトル要素は、0に設定される。ラベル選択器205は、マスキングされた関連確率ベクトル内で確率が最も高い1つのラベルを選択する。選択されたラベルが生成され、ラベル予測器203に、そしてバイナリマスキングモジュール204に送信されて、次のラベルを生成する。「ラベルがこれ以上生成されない」ことを示す特別なラベルが選択されるまで、ラベル予測203からラベル選択205までのプロセスが反復される。N回の反復後、所与のデータインスタンスについて、関連ラベルのセット、R={l(n)∈L│n=1,...,N}が取得される。各処理モジュールの詳細な説明が、以下のセクションにおいて提示される。
本発明のいくつかの実施形態によれば、関連ラベルを選択することは、再帰型ニューラルネットワークによって計算される関連度スコアに基づいて実行することができる。
特徴抽出
特徴抽出器202は、入力データインスタンスを、データの分類に有用である顕著な特徴を含む特徴ベクトルに変換する。データが長さTのワードシーケンスのテキスト文書である場合、このシーケンスはまず、ワードIdナンバーのシーケンス、W=w,w,...,w,...,wに変換され、ここで、任意のt=1,...,Tについて、wは、1≦w≦|V|であるような正の整数である。Vは、語彙と称される所定のワードのセットであり、このセット内の各ワードは、一意のIdナンバーを有し、|V|は、語彙サイズを表す。
本発明のいくつかの実施形態によれば、テキスト文書からの特徴抽出は、いくつかの方法によって実行することができる。例えば、「バッグオブワード(bag-of-words)」を用いることができ、これにより、ワードIdシーケンスが|V|次元バイナリ特徴ベクトルxBOW∈{0,1}|V|に変換され、このベクトル内の第iの要素xBOW[i]は、以下のように取得される。
Figure 0006741357
このベクトルは、どのワードが文書内に含まれるのかを表す。
さらに、特徴抽出のために特徴抽出モデルを用いることが可能である。近年、特徴抽出モデルとしてニューラルネットワークが用いられている。
入力データがテキスト文書である場合、各ワード識別(Id)ナンバーw∈Wはまず、ワンホット(one-hot)ベクトル
Figure 0006741357
に変換され、ここで、このベクトルの第iの要素
Figure 0006741357
は、以下のように取得することができる。
Figure 0006741357
次いで、ワンホットベクトルのシーケンス
Figure 0006741357
が、再帰型ニューラルネットワーク(RNN)に与えられ、特徴ベクトルのシーケンスを、RNNの活性化ベクトルのシーケンスとして取得することができる。例えば、双方向長期短期記憶(BLSTM)RNNを用いることができる。
図3は、双方向長期短期記憶(BLSTM)再帰型ニューラルネットワーク(RNN)300の構造を示している。BLSTM RNN300は、BLSTMネットワーク300、又はネットワーク300と称される場合がある。
BLSTMネットワーク300は、入力層301、射影層(projection layer)302、順方向LSTM層305、逆方向LSTM層304、及び出力層305を含む。
BLSTMネットワーク300の入力層301において、入力データをBLSTMネットワーク300にフィードするために、ワンホットベクトル
Figure 0006741357
が取得される。次いで、射影層302において、P×|V|行列
Figure 0006741357
とP次元バイアスベクトル
Figure 0006741357
とでのアフィン変換を用いてP次元ベクトル
Figure 0006741357
が計算される。すなわち、
Figure 0006741357
である。
この変換は、|V|からPへの次元削減に用いられるものであり、ここで、|V|は、通常5000を超え、一方、Pは、100〜300程度のより小さな数として選択される。
順方向LSTM層303において、LSTM関数を用いてH次元活性化ベクトル
Figure 0006741357
が計算され、
Figure 0006741357
この式は、以下のように計算される。
Figure 0006741357
ここで、
Figure 0006741357
であり、σ(・)は、要素ごとのシグモイド関数であり、tanh(・)は、双曲線正接関数であり、i、f、o及びcは、xについてのそれぞれ、入力ゲート、忘却ゲート、出力ゲート、及びセル活性化ベクトルであり、
Figure 0006741357
であることを仮定する。
Figure 0006741357
は、ベクトル同士の要素ごとの乗算を示す。重み行列
Figure 0006741357
及びバイアスベクトルbは、LSTM関数のパラメーターであり、これらは、下付き文字z∈{x,h,i,f,o,c}によって識別される。例えば、
Figure 0006741357
は、隠れ対入力ゲート行列(hidden-to-input gate matrix)であり、
Figure 0006741357
は、入力対出力ゲート行列(input-to-output gate matrix)である。活性化ベクトルhは、入力ベクトルx及び先行の活性化ベクトルht−1から再帰的に取得され、ここで、hは、H次元の0ベクトルであると仮定する。
一方で、逆方向LSTM層304において、t=Tから1までという逆順で活性化ベクトルh’も取得され、ここで、逆方向LSTM関数は、以下のように適用される。
Figure 0006741357
ここで、LSTM(・)は、順方向LSTM層303と同じように、以下のように計算され、
Figure 0006741357
h’T+1は、H次元の0ベクトルであると仮定する。
最終的に、t=1,...,Tについて、順方向活性化ベクトル及び逆方向活性化ベクトルの結合ベクトル(concatenated vector)
Figure 0006741357
が得られ、特徴ベクトルシーケンスが取得される。
図3におけるように、出力層305が、ネットワーク300に含まれる。本発明のいくつかの実施形態において、この層305は、ネットワークが特徴抽出に用いられる場合、無視することができる。出力層305は、ネットワークのトレーニングフェーズにおいて用いることができる。
画像データの場合、スケール不変特徴変換(SIFT:Scale-Invariant Feature Transform)及び勾配方向ヒストグラム(HOG:Histograms of Oriented Gradients)が利用可能である。音声データの場合、メル周波数ケプストラル係数(MFCC:Mel-Frequency Cepstral Coefficients)が広く用いられている。
さらに、これらの基本的な特徴をニューラルネットワークと組み合わせることが可能であり、この組み合わせにおいて、基本的な特徴はまず抽出され、次いで、ニューラルネットワークにフィードされ、ニューラルネットワークの出力ベクトルが特徴ベクトルとして取得される。特徴抽出のために未加工データをニューラルネットワークに直接フィードすることも可能である。
特徴抽出にニューラルネットワークを用いることの利点は、抽出された特徴ベクトルを用いる分類器もまたニューラルネットワークである場合、特徴抽出器、すなわちニューラルネットワークを、この分類器と共同でトレーニングすることができることである。結果的に、特徴抽出器は、分類器のために、分類精度を改善する、より良好な特徴ベクトルを出力することができる。
マルチラベル分類のシーケンス生成器
本発明の実施形態によるシーケンス生成器が、図2に示されている。特徴抽出器202によって得られた1つの特徴ベクトル又は特徴ベクトルのシーケンスは、ラベル予測器203にフィードされ、このラベル予測器は、入力ベクトル(複数の場合もある)のラベルの関連確率を推測する。ここで、ラベル予測器として注目ベース再帰シーケンス生成器(ARSG:attention-based recurrent sequence generator)を用いる一例を示す。
Figure 0006741357
であるような特徴ベクトルのシーケンスX=x,...,x,...,xを所与とすると、ARSGは、ラベルの関連確率を反復的に推測する。
ARSGは、注目機構(attention mechanism)を有する再帰型ニューラルネットワークである。注目機構は、複数の特徴ベクトル、例えばベクトルのシーケンスを、これらのベクトルの重み付き平均、すなわち、
Figure 0006741357
として1つのベクトルに合計するのに用いられ、ここで、gは、第nの反復における合計されたベクトルであり、αn,tは、第nの反復における第tのベクトルの注目重み(attention weight)であり、ここで、
Figure 0006741357
であり、αn,t≧0である。
高い注目重みを有する特徴ベクトルは、gにおいて支配的であるので、いくつかの特定の特徴ベクトルを、注目重みを適切に推定することによって、良好な分類のために強調することができる。例えば、入力データが特定のフレーズに対応する特徴ベクトルを含むテキスト文書である場合、特徴ベクトルを、そのフレーズに密接に関連したラベルを予測するために強調することができる。
ARSGは、注目機構を有する再帰型ニューラルネットワークである。ARSGの隠れ活性化ベクトルを、LSTM関数を用いて以下のように取得することができる。
Figure 0006741357
ここで、
Figure 0006741357
は、ARSGのK次元活性化ベクトルである。yは、第nの反復における、生成されたラベルに対応するJ次元ベクトルであり、これは、生成されたラベルをM次元ワンホットベクトルに変換した後にこのラベルをJ次元ベクトルに射影することによって、以下のように取得される。
Figure 0006741357
ここで、関数onehot()は、ラベルを、ラベルIdナンバーに対応する要素の場合には1を有し、他の要素の場合には0を有するワンホットベクトルに変換する。
Figure 0006741357
及び
Figure 0006741357
は、それぞれラベルの射影行列及びバイアスベクトルである。
は、先行の活性化ベクトルsn−1、生成されたラベルl(n)、及び合計された特徴ベクトルgを用いて更新されるので、これは、生成されたラベル及び付随した特徴ベクトルのコンテキスト情報を第nの反復まで保持する。
第nの反復におけるM次元関連確率ベクトルγは、コンテキスト情報sn−1及び現在の合計された特徴ベクトルgを用いて以下のように取得され、
Figure 0006741357
ここで、
Figure 0006741357
及び
Figure 0006741357
は、変換行列であり、
Figure 0006741357
は、バイアスベクトルである。softmax()関数は、D次元ベクトルxについて、以下のように計算される。
Figure 0006741357
注目重みが同じように、以下のように計算され、
Figure 0006741357
及び
Figure 0006741357
ここで、
Figure 0006741357
及び
Figure 0006741357
は、変換行列であり、
Figure 0006741357
は、バイアスベクトルであり、
Figure 0006741357
は、ベクトルである。en,tは、所与のコンテキストsn−1における入力特徴xの重要度を表す。次いで、en,tは、
Figure 0006741357
かつαn,t≧0であるように、注目重みαn,tに変換される。
バイナリマスキングモジュール204において、既に生成されたラベルがラベル選択器205において再度選択されることがないように関連確率ベクトルγがマスキングされる。ARSGはマルチラベル分類のために作成されたものではないので、この機構は、オリジナルのARSGには含まれていない。このバイナリマスキングによって、同じラベルを再度生成して不必要な反復を実行することを回避することができる。
バイナリマスキングモジュール204において、関連確率ベクトルγは、バイナリベクトルBを用いてマスキングされ、このバイナリベクトルの要素は、以下のように与えられる。
Figure 0006741357
ここで、lは、ラベルIdナンバーを示し、Sn−1は、第(n−1)の反復までに生成されたラベルのセットである。B及びγの要素ごとの乗算を用いて、マスキングされた関連確率ベクトルγ’が以下のように取得される。
Figure 0006741357
ラベル選択器205において、マスキングされた関連確率ベクトルγ’に基づいて、第nのラベルが以下のように選択され、
Figure 0006741357
ここで、各ラベルがラベルIdナンバーとして表されると仮定する。
n=1から、「ラベルがこれ以上生成されない」ことを示す特別なラベル、例えば、<nol>が選択されるまで、上記のラベル生成プロセスを繰り返すことによって、所与の入力特徴ベクトルについて、関連ラベルのセット、R={l(n)∈L│n=1,...,N}が最終的に取得され、ここで、Nは、実際に実行された反復数である。
次の反復について、
Figure 0006741357
によって第nのラベルを選択した後にバイナリベクトルを更新することができ、ここで、全てのBの要素は、ラベル生成を開始する前に、1に初期設定されている。
シーケンス生成器の手順は、アルゴリズム1に要約される。行1〜4は、初期化ステップに対応する。行1において、初期ラベルl(0)は、ラベルシーケンスの開始を表す特別なラベル「<start>」に設定され、ここで、Id()は、所与のラベルのIdナンバーを返す関数である。行2において、l(0)は、yに変換される。行3は、yから初期活性化ベクトルsを取得し、ここで、
Figure 0006741357
は、K次元0ベクトルであり、
Figure 0006741357
は、Z次元0ベクトルである。行4は、全ての要素が1であるような初期バイナリマスキングベクトルを用意する。
行5〜17において、n=Nmaxまでラベル生成ステップが反復されるが、ただし、特別なラベル「<nol>」が行11において選択された場合、アルゴリズムは、行13において反復ループから抜け出す。Nmaxは、任意の自然数に設定することができるが、Mより大きくするべきではない。何故ならば、アルゴリズムは、M個のラベルより多くのラベルを生成することはないためである。アルゴリズムは、最悪の場合Nmax回反復する可能性があるが、通常は、特別なラベルを選択することによって遥かに少ない反復で終了する。
アルゴリズム1:
入力:X=x,...,x
出力:R={l(1),l(2),...}
Figure 0006741357
マルチラベル分類システム
図4は、本発明の実施形態によるマルチラベル分類の装置のブロック図を示している。
マルチラベル分類装置400は、入力デバイス401、特徴抽出器402、ラベル予測器403、バイナリマスキング404、ラベル選択器405、特徴抽出モデル406、シーケンス生成モデル407、及び出力デバイス308を備え、この装置において、特徴抽出モデル及びシーケンス生成モデルは、プロセッサに接続された記憶装置406及び407に記憶される。シーケンス生成モデル及び特徴抽出モデルは、ニューラルネットワークによって形成することができる。
マルチラベル分類装置400は、記憶装置406からBLSTM RNN等の特徴抽出モデルを読み出して特徴抽出器402に与える。また、システムは、記憶装置407からARSG等のシーケンス生成モデルを読み出してラベル予測器403に与える。
マルチラベル分類装置400は、入力デバイス401から入力データインスタンスを受信する。入力デバイス401は、カメラ、画像スキャナー、マイクロフォン、ハードディスクドライブ又はコンピューターネットワークとすることができる。
マルチラベル分類装置400のプロセッサは、マルチラベル分類方法を実施するコンピュータープログラムを実行し、この方法においてプロセッサは、特徴抽出モデル及びシーケンス生成モデルを用いて特徴抽出及びラベルシーケンス生成を実行する。ラベルを生成するために、最終ラベル(end label)が選択されるまで、ラベル予測器403、バイナリマスキング404、及びラベル選択器405が繰り返し実行される。いくつかの実施形態において、ラベル予測器403は、再帰型ニューラルネットワークを用いてラベルを予測することができる。
マルチラベル分類装置400は、生成されたラベルを出力デバイス408に出力する。この場合、出力デバイス408は、ディスプレイ、ハードディスクドライブ、又はコンピューターネットワークとすることができる。さらに、本発明のいくつかの実施形態において、出力デバイス408は、マルチラベル分類装置400又はマルチラベル分類システムに含めることができる。
図5は、本発明のいくつかの実施形態によるマルチラベル分類システム500のブロック図を示している。マルチラベル分類システム500は、キーボード511及びポインティングデバイス/メディア512と接続可能なヒューマンマシンインターフェース(HMI)510と、プロセッサ520と、記憶デバイス530と、メモリ540と、ローカルエリアネットワーク及びインターネットネットワークを含むネットワーク590と接続可能なネットワークインターフェースコントローラー550(NIC)と、ディスプレイインターフェース560と、撮像デバイス575と接続可能な撮像インターフェース570と、印刷デバイス585と接続可能なプリンターインターフェース580とを備える。マルチラベル分類システム500は、NIC550に接続されたネットワーク590を介して電子テキスト/イメージ化文書595を受信することができる。記憶デバイス530は、マルチラベル分類モジュール250、シーケンス生成モデル531、及び特徴抽出モデル532を含む。ポインティングデバイス/メディア512は、コンピューター可読記録媒体上に記憶されたプログラムを読み出すモジュールを含むことができる。マルチラベル分類モジュール250、シーケンス生成モデル531及び特徴抽出モデル532は、ニューラルネットワークによって形成することができる。
マルチラベル分類を実行するために、キーボード511、ポインティングデバイス/メディア512を用いて、又は他のコンピューター(図示せず)に接続されたネットワーク590を介して、命令をマルチラベル分類システム500に送信することができる。システム500は、HMI510を介して命令を受信し、記憶デバイス530に記憶されたマルチラベル分類モジュール250、シーケンス生成モデル531及び特徴抽出モジュール532をロードすることによってメモリ540に接続されたプロセッサ520を用いてマルチラベル分類を実行するために命令を実行する。
マルチラベル分類のためのシーケンス生成器のトレーニング
シーケンス生成器は、マルチラベル分類にあたって用いる前に、トレーニングデータを用いてトレーニングされる必要がある。
U個のサンプルからなるトレーニングデータセットを所与とすると、
Figure 0006741357
であり、ここで、Xは、1つの特徴ベクトル又は特徴ベクトルのシーケンスであり、これは、第uのデータインスタンスから抽出される。Rは、Xについてのグラウンドトゥルースラベルのセット
Figure 0006741357
であり、これは、手動で用意される。
目的関数が、交差エントロピーに基づいて計算される。すなわち、
Figure 0006741357
であり、
ここで、Λは、シーケンス生成器のパラメーターのセットである。ARSGの場合において、パラメーターセットは、
Figure 0006741357
からなる。ARSGを用いて、logP(R│X,Λ)は以下のように計算される。
Figure 0006741357
ここで、γun’は、パラメーターセットΛを用いて入力特徴ベクトルXについて第nの反復において推測される関連確率ベクトルである。しかしながら、γun’は、確率分布であると仮定することができない。何故ならば、
Figure 0006741357
はバイナリマスキングに起因して1未満である可能性があるためである。本発明において、γun’は、以下のように、
Figure 0006741357
となるように再正規化され、
Figure 0006741357
トレーニングフェーズにおいてγun’の代わりにγun’’が用いられる。
ARSGをトレーニングするために、時間的誤差逆伝播(back-propagation through time)アルゴリズムを用いて、目的関数が最小になるようにパラメーターセットΛを更新することができる。
ダイアログ状態追跡タスク(Dialog State Tracking Task)を用いた評価結果
話者の意図を表すラベルのセットで人間対人間の会話をアノテートしている、第5世代ダイアログ状態追跡チャレンジ(DSTC5:5th Dialog State Tracking Challenge)タスクを用いて、マルチラベル分類方法200を評価した。全ての会話はシンガポール観光についてのものであり、これらの会話において、観光ガイドと観光客とがシンガポール観光の計画を立てている。
このタスクにおいて、会話は、既にテキスト化され、サブダイアログに分割されている。システムは、各サブダイアログのテキスト文書について適切なラベルを発見しなければならない。各サブダイアログは、平均して6.5個の発話を含み、1個〜5個のラベルでアノテートされている。本発明者らは、トレーニングデータにおいて、最も一般的な200個のラベル、すなわち、M=200を用いた。このラベルセットは、トレーニングセット内のスロット値対の80%をカバーし、テストセット内の78%をカバーする。
各ラベルは、「ACCOMODATION:Hotel(宿泊:ホテル)」、「INFO:Pricerange(情報:価格帯)」、「ATTRACTION:Zoo(アトラクション:動物園)」、及び「FROM:Changi Airport(出発地:チャンギ国際空港)」等のスロット値対からなる。
特徴抽出にあたって、本発明者らは、本明細書に記載したようにBLSTMに基づく一般的な方法を用いた。また、本発明者らは、全ての方法において注目機構を用いたが、BR方法及びCC方法では、バイナリ関連ベクトルを出力するフィードフォワードネットワークが用いられている。CC方法では、各予測された関連ベクトルは、M個のラベルにわたって繰り返しネットワークにフィードされる。本発明の特徴抽出器及びARSGは、|V|=5639、P=50、J=100、Z=100、K=50、M=200として設計した。BR方法及びCC方法では、フィードフォワードネットワークは、100個のユニットを有する2つの隠れ層を有した。
図6は、バイナリ関連度(BR)方法、分類器チェーン(CC)、及び本発明を用いた、Fスコアにおけるマルチラベル分類性能及び推測フェーズにおける計算時間を示している。Fスコアは、以下のように計算される、適合率及び再現率の調和平均である。
Figure 0006741357
ここで、TPは、真陽性(true positives)の数値、すなわち、正しく検出されたラベルの数であり、FPは、偽陽性(false positives)の数値、すなわち、誤って検出されたラベルの数であり、FNは、偽陰性(false negatives)の数値、すなわち、グラウンドトゥルースラベルにおける検出されていないラベルの数である。一般に、Fスコアが高いほど、より良好なシステムを示している。
図6は、DSTC5上の評価結果の一例である。計算時間は、Intel(登録商標)Xeon(登録商標)プロセッサE52690 v3、12Core、2.6GHz及びシングルGPU(NVidia Titan X)を有するコンピューター上で測定した。実験において、プログラムは、単一プロセスとして実行し、大半の行列及びベクトル演算は、GPU上で実行される。図6における各計算時間は、データインスタンス、すなわち、サブダイアログあたりの平均処理時間を示している。
本発明の方法は、FスコアにおいてBR方法及びCC方法より優れていた。BR方法は他の方法よりも高速であるが、Fスコアは、遥かに低い(すなわち、0.155)。CC及び本発明は、同等のFスコア、それぞれ0.342及び0.367を有するが、本発明は、CC方法よりも著しく高速であり、すなわち、本発明の推測時間は1.324であり、一方CC方法の推測時間は14.729である。このように、本発明の方法及びシステムは、より高いラベリング精度及びより高速の推測プロセスの双方を達成した。
本発明の上記の実施形態は数多くの方法のいずれかにおいて実現することができる。例えば、それらの実施形態は、ハードウェア、ソフトウェア又はその組み合わせを用いて実現することができる。ソフトウェアにおいて実現されるとき、そのソフトウェアコードは、単一のコンピューター内に設けられるにしても、複数のコンピューター間に分散されるにしても、任意の適切なプロセッサ、又はプロセッサの集合体において実行することができる。そのようなプロセッサは集積回路として実現することができ、集積回路コンポーネント内に1つ以上のプロセッサが含まれる。しかしながら、プロセッサは、任意の適切な構成の回路を用いて実現することができる。
また、本発明の実施形態は方法として具現することができ、その一例が提供されてきた。その方法の一部として実行される動作は、任意の適切な方法において順序化することができる。したがって、例示的な実施形態において順次の動作として示される場合であっても、例示されるのとは異なる順序において動作が実行される実施形態を構成することもでき、異なる順序は、いくつかの動作を同時に実行することを含むことができる。
請求項要素を変更するために特許請求の範囲において「第1の」、「第2の」のような序数の用語を使用することは、それだけで、或る請求項要素が別の請求項要素よりも優先度が高いこと、優位であること、若しくは上位にあることを、又は方法の動作が実行される時間的な順序を暗示するのではなく、請求項要素を区別するために、或る特定の名称を有する1つの請求項要素を(序数用語を使用しなければ)同じ名称を有する別の要素から区別するラベルとして単に使用される。

Claims (20)

  1. マルチ関連ラベルを生成する方法であって、
    特徴抽出器によって入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、
    ラベル予測器によって、前記特徴ベクトルに基づいて関連度スコアを有する複数の関連ラベルを含む関連ラベルベクトルを求めるステップであって、前記関連ラベルの前記関連度スコアのそれぞれは、前記入力データのコンテンツに対する関連確率である、ステップと、
    先行のラベル選択において選択されていた事前選択ラベルをマスキングすることによってバイナリマスキングベクトルを更新するステップと、
    前記関連ラベルから前記事前選択ラベルを除外するように前記関連ラベルベクトルが更新されるように、前記更新されたバイナリマスキングベクトルを前記関連ラベルベクトルに適用するステップと、
    前記更新された関連ラベルベクトルの前記関連度スコアに基づいて前記更新された関連ラベルベクトルから関連ラベルを選択するステップと、
    を含む、方法。
  2. 前記関連ラベルを蓄積して、マルチ関連ラベルのセットを生成すること、
    を更に含む、請求項1に記載の方法。
  3. 前記蓄積することは、最終ラベルが選択されるまで続行される、請求項2に記載の方法。
  4. 前記更新されたバイナリマスキングベクトルを前記適用するステップは、前記事前選択ラベルの前記関連度スコアを予め設定された小さな定数に設定する、請求項1に記載の方法。
  5. 前記選択するステップにおいて、前記更新された関連ラベルベクトルの前記関連ラベルにおいて最も高いスコアを有する前記関連ラベルが選択される、請求項1に記載の方法。
  6. 前記ラベル予測器は、前記求めるステップにおいて、再帰型ニューラルネットワークを利用する、請求項1に記載の方法。
  7. 前記選択するステップにおいて累積ラベル情報を生成して前記ラベル予測器に送信すること、
    を更に含む、請求項1に記載の方法。
  8. 前記事前選択ラベルは、先行のラベル選択において選択されていた前記関連ラベルである、請求項1に記載の方法。
  9. 前記選択するステップは、前記マスキングすることの後に実行される、請求項1に記載の方法。
  10. 前記関連度スコアは、再帰型ニューラルネットワークを用いることによって計算される、請求項1に記載の方法。
  11. 前記選択するステップにおいて、前記関連ラベルは、前記関連ラベルベクトルにおけるマスキングされていないラベルの中で最も高い関連度スコアを有する、請求項1に記載の方法。
  12. 前記マスキングすることは、前記バイナリマスキングベクトルを用いることによって実行される、請求項1に記載の方法。
  13. マルチ関連ラベルを生成するシステムであって、
    入力デバイスから入力データを受信する入力インターフェースと、
    前記入力インターフェース、及びアルゴリズムモジュールのコードを記憶するメモリに接続されたプロセッサと、
    を備え、
    前記プロセッサは、前記入力データに応答して、前記アルゴリズムモジュールの命令に従って複数のステップを実行し、
    前記複数のステップは、
    特徴抽出器によって入力データを含む入力ベクトルから特徴ベクトルを抽出するステップと、
    ラベル予測器によって、前記特徴ベクトルに基づいて関連度スコアを有する複数の関連ラベルを含む関連ラベルベクトルを求めるステップであって、前記関連ラベルの前記関連度スコアのそれぞれは、前記入力データのコンテンツに対する関連確率である、ステップと、
    先行のラベル選択において選択されていた事前選択ラベルをマスキングすることによってバイナリマスキングベクトルを更新するステップと、
    前記関連ラベルから前記事前選択ラベルを除外するように前記関連ラベルベクトルが更新されるように、前記更新されたバイナリマスキングベクトルを前記関連ラベルベクトルに適用するステップと、
    前記更新された関連ラベルベクトルの前記関連度スコアに基づいて前記更新された関連ラベルベクトルから関連ラベルを選択するステップと、
    を含む、システム。
  14. 前記複数のステップは、前記関連ラベルを蓄積して、マルチ関連ラベルのセットを生成するステップ、
    を更に含む、請求項13に記載のシステム。
  15. 前記蓄積することは、最終ラベルが選択されるまで続行される、請求項14に記載のシステム。
  16. 前記選択するステップにおいて、前記更新された関連ラベルベクトルの前記関連ラベルにおいて最も高いスコアを有する前記関連ラベルが選択される、請求項13に記載のシステム。
  17. 前記複数のステップは、前記選択するステップにおいて累積ラベル情報を生成して前記ラベル予測器に送信するステップ、
    を更に含む、請求項13に記載のシステム。
  18. 前記事前選択ラベルは、先行のラベル選択において選択されていた前記関連ラベルである、請求項13に記載のシステム。
  19. 前記関連度スコアは、再帰型ニューラルネットワークを用いることによって計算される、請求項13に記載のシステム。
  20. 前記選択するステップにおいて、前記関連ラベルは、前記関連ラベルベクトルにおけるマスキングされていないラベルの中で最も高い関連度スコアを有する、請求項13に記載のシステム。
JP2019504995A 2016-12-07 2017-09-08 マルチ関連ラベルを生成する方法及びシステム Active JP6741357B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/371,513 2016-12-07
US15/371,513 US11086918B2 (en) 2016-12-07 2016-12-07 Method and system for multi-label classification
PCT/JP2017/033372 WO2018105194A1 (en) 2016-12-07 2017-09-08 Method and system for generating multi-relevant label

Publications (2)

Publication Number Publication Date
JP2019527440A JP2019527440A (ja) 2019-09-26
JP6741357B2 true JP6741357B2 (ja) 2020-08-19

Family

ID=60143743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504995A Active JP6741357B2 (ja) 2016-12-07 2017-09-08 マルチ関連ラベルを生成する方法及びシステム

Country Status (4)

Country Link
US (1) US11086918B2 (ja)
JP (1) JP6741357B2 (ja)
DE (1) DE112017006166T5 (ja)
WO (1) WO2018105194A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3475889A4 (en) 2016-06-23 2020-01-08 Capital One Services, LLC NEURONAL NETWORKING SYSTEMS AND METHOD FOR GENERATING DISTRIBUTED PRESENTATIONS OF ELECTRONIC TRANSACTION INFORMATION
KR102692670B1 (ko) * 2017-01-04 2024-08-06 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US11157829B2 (en) * 2017-07-18 2021-10-26 International Business Machines Corporation Method to leverage similarity and hierarchy of documents in NN training
US10699698B2 (en) * 2018-03-29 2020-06-30 Tencent Technology (Shenzhen) Company Limited Adaptive permutation invariant training with auxiliary information for monaural multi-talker speech recognition
US10699697B2 (en) * 2018-03-29 2020-06-30 Tencent Technology (Shenzhen) Company Limited Knowledge transfer in permutation invariant training for single-channel multi-talker speech recognition
US11567807B2 (en) 2018-03-30 2023-01-31 EMC IP Holding Company LLC Allocation of shared computing resources using source code feature extraction and machine learning
US10878296B2 (en) * 2018-04-12 2020-12-29 Discovery Communications, Llc Feature extraction and machine learning for automated metadata analysis
US10599769B2 (en) 2018-05-01 2020-03-24 Capital One Services, Llc Text categorization using natural language processing
US20200026985A1 (en) * 2018-07-17 2020-01-23 Palo Alto Research Center Incorporated System and method for characterizing an arbitrary-length time series using pre-selected signatures
US11436056B2 (en) * 2018-07-19 2022-09-06 EMC IP Holding Company LLC Allocation of shared computing resources using source code feature extraction and clustering-based training of machine learning models
CN109165380B (zh) * 2018-07-26 2022-07-01 咪咕数字传媒有限公司 一种神经网络模型训练方法及装置、文本标签确定方法及装置
US10862765B2 (en) * 2018-07-31 2020-12-08 EMC IP Holding Company LLC Allocation of shared computing resources using a classifier chain
CN109783636B (zh) * 2018-12-12 2023-03-28 重庆邮电大学 一种基于分类器链的汽车评论主题提取方法
EP3907670A4 (en) 2019-01-02 2022-03-02 Panasonic Intellectual Property Corporation of America INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7267044B2 (ja) * 2019-03-15 2023-05-01 エヌ・ティ・ティ・コミュニケーションズ株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
US11604934B2 (en) * 2019-05-29 2023-03-14 Nec Corporation Failure prediction using gradient-based sensor identification
CN110210572B (zh) * 2019-06-10 2023-02-07 腾讯科技(深圳)有限公司 图像分类方法、装置、存储介质及设备
CN110347791B (zh) * 2019-06-20 2023-06-16 广东工业大学 一种基于多标签分类卷积神经网络的题目推荐方法
CN110442707B (zh) * 2019-06-21 2022-06-17 电子科技大学 一种基于seq2seq的多标签文本分类方法
US11531863B1 (en) * 2019-08-08 2022-12-20 Meta Platforms Technologies, Llc Systems and methods for localization and classification of content in a data set
CN110442723B (zh) * 2019-08-14 2020-05-15 山东大学 一种基于多步判别的Co-Attention模型用于多标签文本分类的方法
CN110750965B (zh) * 2019-09-16 2023-06-30 平安科技(深圳)有限公司 英文文本序列标注方法、系统及计算机设备
CN110851596B (zh) * 2019-10-11 2023-06-27 平安科技(深圳)有限公司 文本分类方法、装置及计算机可读存储介质
US11579598B2 (en) * 2019-10-17 2023-02-14 Mitsubishi Electric Research Laboratories, Inc. Manufacturing automation using acoustic separation neural network
WO2021101231A1 (en) * 2019-11-22 2021-05-27 Samsung Electronics Co., Ltd. Event recognition on photos with automatic album detection
US11941496B2 (en) * 2020-03-19 2024-03-26 International Business Machines Corporation Providing predictions based on a prediction accuracy model using machine learning
CN111553442B (zh) * 2020-05-12 2024-03-12 国网智能电网研究院有限公司 一种分类器链标签序列的优化方法及系统
US11507777B2 (en) 2020-05-13 2022-11-22 Adobe Inc. Labeling techniques for a modified panoptic labeling neural network
CN111651605B (zh) * 2020-06-04 2022-07-05 电子科技大学 基于多标签分类的肺癌前沿趋势预测方法
US12004860B2 (en) * 2020-07-31 2024-06-11 Siemens Healthineers Ag Cardiac function assessment using machine-learning algorithms
US20220050967A1 (en) * 2020-08-11 2022-02-17 Adobe Inc. Extracting definitions from documents utilizing definition-labeling-dependent machine learning background
CN114255376A (zh) * 2020-09-23 2022-03-29 复旦大学 一种基于显著图的多标签图像识别系统
CN112632278A (zh) * 2020-12-18 2021-04-09 平安普惠企业管理有限公司 一种基于多标签分类的标注方法、装置、设备及存储介质
JP7143906B2 (ja) * 2021-01-15 2022-09-29 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
CN114596958B (zh) * 2022-03-15 2024-03-19 平安科技(深圳)有限公司 基于级联分类的病理数据分类方法、装置、设备及介质
CN114726870B (zh) * 2022-04-14 2024-05-14 福建福清核电有限公司 基于可视化拖拽的混合云资源编排方法、系统和电子设备
CN114880474A (zh) * 2022-05-06 2022-08-09 江苏大学 一种基于数理特征提取的数学题文本多标签分类方法
CN115114433B (zh) * 2022-05-19 2024-04-02 腾讯科技(深圳)有限公司 语言模型的训练方法、装置、设备及存储介质
CN115905533B (zh) * 2022-11-24 2023-09-19 湖南光线空间信息科技有限公司 一种多标签文本智能分类方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4948379B2 (ja) * 2007-12-18 2012-06-06 キヤノン株式会社 パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体
US8452763B1 (en) * 2009-11-19 2013-05-28 Google Inc. Extracting and scoring class-instance pairs
US8924313B2 (en) 2010-06-03 2014-12-30 Xerox Corporation Multi-label classification using a learned combination of base classifiers
JP2016151805A (ja) * 2015-02-16 2016-08-22 大日本印刷株式会社 オブジェクト検出装置、オブジェクト検出方法、及びプログラム
US10426364B2 (en) * 2015-10-27 2019-10-01 Cardiologs Technologies Sas Automatic method to delineate or categorize an electrocardiogram
US20180053097A1 (en) * 2016-08-16 2018-02-22 Yahoo Holdings, Inc. Method and system for multi-label prediction

Also Published As

Publication number Publication date
DE112017006166T5 (de) 2019-08-29
US20180157743A1 (en) 2018-06-07
WO2018105194A1 (en) 2018-06-14
JP2019527440A (ja) 2019-09-26
US11086918B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
JP6741357B2 (ja) マルチ関連ラベルを生成する方法及びシステム
JP7317050B2 (ja) 異なるデータモダリティの統計モデルを統合するためのシステムおよび方法
AU2016256764B2 (en) Semantic natural language vector space for image captioning
CN110046248B (zh) 用于文本分析的模型训练方法、文本分类方法和装置
GB2547068B (en) Semantic natural language vector space
US11270124B1 (en) Temporal bottleneck attention architecture for video action recognition
US10417498B2 (en) Method and system for multi-modal fusion model
US9811765B2 (en) Image captioning with weak supervision
CN111382868B (zh) 神经网络结构搜索方法和神经网络结构搜索装置
CN110851641B (zh) 跨模态检索方法、装置和可读存储介质
CN113434716B (zh) 一种跨模态信息检索方法和装置
CN116868206A (zh) 跨域自适应学习
CN114358203A (zh) 图像描述语句生成模块的训练方法及装置、电子设备
US20240312252A1 (en) Action recognition method and apparatus
WO2016142285A1 (en) Method and apparatus for image search using sparsifying analysis operators
US20220180190A1 (en) Systems, apparatuses, and methods for adapted generative adversarial network for classification
CN114118207B (zh) 基于网络扩张与记忆召回机制的增量学习的图像识别方法
CN114912540A (zh) 迁移学习方法、装置、设备及存储介质
CN113870863A (zh) 声纹识别方法及装置、存储介质及电子设备
Xie et al. Learning class-conditional gans with active sampling
US20220292812A1 (en) Zero-shot dynamic embeddings for photo search
US20240126993A1 (en) Transformer-based text encoder for passage retrieval
EP3166021A1 (en) Method and apparatus for image search using sparsifying analysis and synthesis operators
CN110196981B (zh) 文本表示方法、装置、设备和存储介质
CN114049634B (zh) 一种图像识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6741357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250