JP2022536241A - コンテキスト・アウェア・データ・マイニング - Google Patents

コンテキスト・アウェア・データ・マイニング Download PDF

Info

Publication number
JP2022536241A
JP2022536241A JP2021561867A JP2021561867A JP2022536241A JP 2022536241 A JP2022536241 A JP 2022536241A JP 2021561867 A JP2021561867 A JP 2021561867A JP 2021561867 A JP2021561867 A JP 2021561867A JP 2022536241 A JP2022536241 A JP 2022536241A
Authority
JP
Japan
Prior art keywords
word
list
words
embedding
text document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021561867A
Other languages
English (en)
Other versions
JP7481074B2 (ja
JPWO2020250064A5 (ja
Inventor
ドメニコーニ、ジャコモ
キュン リー、エウン
モラーリ、アレッサンドロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2022536241A publication Critical patent/JP2022536241A/ja
Publication of JPWO2020250064A5 publication Critical patent/JPWO2020250064A5/ja
Application granted granted Critical
Publication of JP7481074B2 publication Critical patent/JP7481074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Fuzzy Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

テキスト文書のコンテキスト・アウェア・データ・マイニングのための方法は、入力クエリから構文解析および前処理された単語のリストを受信することと、クエリされているテキスト文書の単語埋込みモデルを使用して、単語のリスト内の単語ごとの関連する分散埋込み表現を計算することと、すべての関連する分散埋込み表現の平均またはすべての関連する分散埋込み表現の最大値のうちの一方を使用して、単一の埋込みで入力クエリを表すために、単語のリスト内のすべての単語の関連する分散埋込み表現を集約することと、クエリの集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得することであって、Nがユーザによって提供される正の整数である、取得することと、取得したセグメントのリストをユーザに返信することとを含む。

Description

本発明は、一般に、知識の抽出、表現、取得、および推論に関し、より詳細には、テキスト文書のコンテキスト・アウェア・データ・マイニングに関する。
単語埋込みは、個々の単語が事前定義されたベクトル空間内で実数値ベクトルとして表される技術の一種である。各単語は、ベクトル空間内の点に関連付けられる。各単語は、数十または数百の次元を有する実数値特徴ベクトルで表され、各次元は単語のアスペクトを表す特徴に関連付けられる。これは、語彙のサイズに対応するサイズのベクトル内の単一のコンポーネントによって単語が表される、ワンホット・エンコーディングなどのスパース単語表現、すなわち「bag of words」として知られる表現に必要な数千または数百万の次元とは対照的である。一方、特徴の数は語彙のサイズよりもはるかに小さい。分散表現は、類似した文脈を有する単語は類似した意味を有するという考えに基づき、単語の使用法に基づいて学習される。これにより、類似した方法で使用される単語は類似した表現を有し、自然にその意味を捉えることができる。これは、類似した意味を持つ異なる単語が非常に異なる表現を有することがあるbag of wordsモデルとは対照的であり得る。ニューラル・ネットワーク・ツールキットの大多数が非常に高次元のスパース・ベクトルではうまく機能しないという点で、高密度かつ低次元のベクトルを使用することには計算上の利点がある。高密度な表現の別の利点は一般化能力であり、一部の特徴が類似した手がかりを提供し得ると考えられる場合、これらの類似性を捉えることができる表現を提供することに価値がある。単語埋込み自然言語処理(NLP)では、自然言語の単語または句が実数のベクトルで表される。表現は、単語がどのように使用されているか、すなわちその文脈のみに基づくことができる。
コンピューティング・システムからのログ・データは、システムの問題を理解および診断するために不可欠である。ログ・データは、量、多様性、速度などに関して膨大であり、システム診断およびトラブルシューティングのためにログ・データを使用することはシステム管理者にとって課題である。特定の表現は指定されていないが、コンピューティング・システムのログ・データを、単語埋込みNLPフォーマットで表すことができる。例えば、ログ内の各単語をトークンとして使用することができるが、ログの行全体をトークンとみなすこともできる。
本発明の一態様によれば、テキスト文書のコンテキスト・アウェア・データ・マイニングの方法であって、入力クエリから構文解析および前処理された単語のリストを受信することと、クエリされているテキスト文書の単語埋込みモデルを使用して、単語のリスト内の単語ごとの関連する分散埋込み表現を計算することと、単一の埋込みで入力クエリを表すために単語のリスト内のすべての単語の関連する分散埋込み表現を集約することと、クエリの集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得することと、取得したセグメントのリストをユーザに返信することとを含む方法が提供される。
実施形態によれば、関連する分散埋込み表現を集約することは、すべての関連する分散埋込み表現の平均またはすべての関連する分散埋込み表現の最大値のうちの一方を使用して実行される。
さらなる実施形態によれば、Nはユーザによって提供される正の整数である。
さらなる実施形態によれば、方法は、テキスト文書を構文解析および前処理し、トークン化された単語リストを生成することと、トークン化された単語リストから単語辞書を定義することであって、単語辞書がトークン化された単語リスト内のトークンの少なくとも一部を含む、定義することと、単語埋込みモデルをトレーニングすることであって、単語埋込みモデルが、単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、トレーニングすることとによって、テキスト文書の単語埋込みモデルをトレーニングすることを含む。
さらなる実施形態によれば、テキスト文書を構文解析および前処理することは、テキスト文書内の各行からすべての句読点およびプリアンブルを削除することと、数値データを解析することと、トークン化された単語リストを形成するためにテキスト文書を単語でトークン化することであって、トークンが文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、トークン化することと、トークン化された単語リストを返信することとを含む。
さらなる実施形態によれば、テキスト文書はコンピュータ・システム・ログであり、数値データは10進数および16進アドレスを含む。
さらなる実施形態によれば、方法は、入力クエリからすべての句読点を削除することと、数値データを解析することと、トークン化された単語リストを生成するために入力クエリを単語でトークン化することであって、トークンが入力クエリの単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、トークン化することと、トークン化された単語リストを返信することとによって、入力クエリを構文解析および前処理することを含む。
さらなる実施形態によれば、クエリの集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得することは、類似性メトリックを使用して、クエリの集約された単語埋込み表現をテキスト文書の単語埋込みモデルと比較することと、クエリの集約された単語埋込み表現との類似性が所定の閾値よりも大きいテキスト文書の単語埋込みモデルのセグメントを返信することと、取得した文書セグメントを類似性に従ってランク付けすることとを含む。
本発明の別の態様によれば、テキスト文書のコンテキスト・アウェア・データ・マイニングの方法であって、テキスト文書を構文解析および前処理し、トークン化された単語リストを生成することと、トークン化された単語リストから単語辞書を定義することであって、単語辞書がトークン化された単語リスト内のトークンの少なくとも一部を含む、定義することと、単語埋込みモデルをトレーニングすることであって、単語埋込みモデルが、単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、トレーニングすることとを含む方法が提供される。テキスト文書を構文解析および前処理することは、テキスト文書内の各行からすべての句読点およびプリアンブルを削除することと、数値データを解析することと、トークン化された単語リストを形成するためにテキスト文書を単語でトークン化することであって、トークンが文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、トークン化することと、トークン化された単語リストを返信することとを含む。
実施形態によれば、方法は、入力クエリから構文解析および前処理された単語のリストを受信することと、クエリされているテキスト文書の単語埋込みモデルを使用して、単語ごとの関連する分散埋込み表現を計算することと、単一の埋込みでクエリを表すために単語のリスト内のすべての単語の関連する分散埋込み表現を集約することと、クエリの集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得することと、取得したセグメントのリストをユーザに返信することとを含む。
さらなる実施形態によれば、方法は、入力クエリからすべての句読点を削除することと、数値データを解析することと、トークン化された単語リストを生成するために入力クエリを単語でトークン化することであって、トークンが入力クエリの単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、トークン化することと、トークン化された単語リストを返信することとによって、入力クエリを構文解析および前処理することを含む。
さらなる実施形態によれば、クエリの集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得することは、類似性メトリックを使用して、クエリの集約された単語埋込み表現をテキスト文書の単語埋込みモデルと比較することと、クエリの集約された単語埋込み表現との類似性が所定の閾値よりも大きいテキスト文書の単語埋込みモデルのセグメントを返信することと、取得した文書セグメントを類似性に従ってランク付けすることとを含む。
さらなる実施形態によれば、テキスト文書はコンピュータ・システム・ログであり、数値データは10進数および16進アドレスを含む。
さらなる実施形態によれば、関連する分散埋込み表現を集約することは、すべての関連する分散埋込み表現の平均またはすべての関連する分散埋込み表現の最大値のうちの一方を使用して実行される。
さらなる実施形態によれば、Nはユーザによって提供される正の整数である。
本発明の別の態様によれば、テキスト文書のコンテキスト・アウェア・データ・マイニングのための方法のステップを実行するためにコンピュータによって実行可能な命令のプログラムを有形に具体化するコンピュータによって読取り可能なプログラム記憶装置が提供される。
以下で説明する例示的な実施形態は、ユーザが単語、行、段落などの任意の種類のテキストとしてクエリを表現することができ、特殊なNLPベースのアルゴリズムが、クエリに類似した単語コンテキストを有するコンピュータ・システム・ログ・データのセグメントを返信する、新規のインターフェースを対象とする。本開示の実施形態によるアプローチは、単純な文字列照合ではなく、クエリ内の単語のコンテキストに基づく。これにより、ユーザがログ内で意味のあるイベントを見つける能力が向上する。実施形態によるアプローチは、教師なし学習に基づく。このアプローチは、ログにすでに存在するテキスト情報に依存し、イベント、キーワード、またはログ・テキストの構造に関する既存の知識なしで適用することができる。
本発明の実施形態による、ユーザ・クエリを処理するための方法のブロック図である。 本発明の実施形態による、モデルを作成するための方法のブロック図である。 本発明の別の実施形態による方法のブロック図である。 本発明の実施形態を実装する例示的なクラウド・コンピューティング・ノードの概略図である。 本発明の実施形態で採用された例示的なクラウド・コンピューティング環境を示す図である。
本明細書に記載の例示的な実施形態は、一般に、NLPベースのコンテキスト・アウェア・ログ・マイニングのための方法を提供する。実施形態は様々な修正および代替形態が可能であるが、その特定の実施形態が、例として図面に示され、本明細書において詳細に説明される。しかしながら、本開示を開示される特定の形態に限定する意図はなく、逆に、本開示は、本開示の思想および範囲内にあるすべての修正、等価物、および代替案を網羅するものであることを理解されたい。
図1は、本開示の実施形態による、ユーザ・クエリを処理する方法のブロック図である。図1は、ユーザがクエリ110を提供するユース・ケースを示し、クエリ110は、個々の単語111、行112、または段落113、行数を含む取得したセグメントのサイズ114、および返信されるべきセグメント数を定義する類似性の閾値であり得る。クエリ110および行数114は、コンピュータ・システム・ログから類似したログ・セグメントを取得する115ための実施形態による方法に対する入力である。実施形態による方法は、クエリ・テキストとの類似性によって順序付けされたセグメント120.1、120.2、…、120.mのセットを出力120として返信する。
図2は、本開示の実施形態による、モデルを作成するための方法のブロック図である。図2は、実施形態によりモデルを作成するために必要なステップを示す。左側は、単語埋込みモデルをトレーニングする方法210のフローチャートである。右上は、トークン化された単語リストを取得するためにシステム・ログ・ファイルを処理するための方法220のフローチャートであり、右下は、一般的な単語埋込み構造のブロック図230である。
フローチャート210を参照すると、モデルのトレーニングの方法は、コンピュータ・システム・ログの生データからのログ出力を構文解析および前処理すること211と、単語辞書を定義すること212と、単語埋込みモデルをトレーニングすること213とを含む。
方法220は、生データからのログ出力を構文解析および前処理すること211に含まれるステップであり、各行のすべての句読点およびプリアンブルを削除すること222と、数値および16進アドレスを解析すること223と、ログを単語でトークン化すること224と、トークン化された単語リストを返信すること225とを含む。数値および16進アドレスは、特定のトークンを使用して解析される。実施形態によれば、10進数は1つのトークンで表され、16進アドレスは別のトークンで表され、数値またはアドレスの情報は、トークンと共にプレースホルダとして残すことができるが、コンテキストは特定の値に限定されない。テキスト処理技術は単語には使用されないが、任意のNLP技術を使用することができる。ログをトークン化することは、ログをトークンに分割することを意味し、トークンは、ログの単一の単語またはN個の連続した単語のNグラムとして、または行全体としても定義され得る。ログがトークン化されると、辞書はすべてのトークンのセット、または最も頻繁なトークンなどの選択されたトークンのサブセットになる。
実施形態によれば、辞書は、単語埋込みモデルで考慮される単語(または行)を定義および表現するために使用される。図2のステップ231を参照すると、入力単語w[t]は、要素の数を辞書のサイズとして有し、要素内のすべての0および1が単語(または行)に対応するワンホット・ベクトルとして表される。この目的で、これらのベクトルを作成するために、定義された辞書が必要である。例えば、V次元ベクトル空間における「ローマ」、「パリ」、「イタリア」、「フランス」のワンホット・ベクトル表現は以下の通りである。
ローマ=[1,0,0,0,0,…,0]、
パリ=[0,1,0,0,0,…,0]、
イタリア=[0,0,1,0,0,…,0]、
フランス=[0,0,0,1,0,…,0]。
単語埋込みモデル230は、N行のログ・セグメント間の距離メトリックを使用し、ここでNはユーザ定義パラメータである。距離メトリックは、2つのログ・セグメントのコンテキストがどの程度類似しているか定義するために使用される。具体的には、メトリックは、ユーザ・クエリとの類似性が最も高い上位N個のセグメントを取得するために使用される。単語埋込みモデルは、単語(または行)を埋込みで、すなわちベクトルで表すニューラル・ネットワーク・モデルである。次に、単語[t]231は、ウィンドウ・サイズ5の場合、単語[t-2]、単語[t-1]、単語[t+1]、および単語[t+2]を含む単語埋込み233に投影される232。ウィンドウ・サイズは、ユーザが提供するモデルのパラメータのうちの1つである。単語埋込みモデルがトレーニングされると、距離メトリックをログのN行のセグメント間で使用することができ、ここでNはユーザ定義パラメータである。単語埋込み、すなわちベクトル間の典型的な距離メトリックは、コサイン類似度である。加えて、教師あり学習アプローチを使用することができる。これは、文書間の類似性を予測するために、長期短期記憶(LSTM)などの教師ありモデルをトレーニングすることを伴う。
図3は、ユース・ケース中の検索のブロック図であり、クエリ・ユース・ケース310からの抽出とクエリ予測320とを示すフローチャートを含む。クエリ・ユース・ケース310を参照すると、ユーザ300は、対象の非構造化テキストの一部、および対象のセグメントごとの行数などのクエリを提供する。クエリ・ユース・ケース310はまた、モデルがシステム・ログ入力311からステップ312でトレーニングされてモデル313を作成することを示す。ステップ312でモデルをトレーニングするステップは、図2のモデルをトレーニングする実施形態による方法210に対応する。
クエリは、各行のすべての句読点およびプリアンブルを削除するステップと、数値および16進アドレスを解析するステップと、クエリを単語q=[w,w,…,w]でトークン化するステップとを含む、図2のシステム・ログ・ファイルを処理するための方法220に基づいて、ステップ314で解析される。
次に、出力qは、図1のステップ115に対応し、ログ・セグメント316を出力する、類似したログ・セグメントを取得するステップ315への入力として提供される。モデルは、クエリに類似したセグメントの順序付けされたリストを取得し、ユーザに出力する。
ブロック320は、クエリ予測に関与するステップのフローチャートであり、ステップ321で、入力から構文解析および前処理された単語のリストを受信することによって始まる。次に、ステップ322で、図2の単語埋込みモデル230を使用して、関連する分散埋込み表現weが単語wごとに計算される。「分散埋込み表現」は、単語埋込みモデルによって与えられる単語(または行)の表現である。ステップ323で、関連する分散埋込み表現weが、単一の埋込みqeでクエリを表現するために、すべての分散単語埋込みweの平均(または最大値)で集約される。ログ・データ内のN行の各セグメントは、同じ方法で表される。単語の埋込みは、単語または行ごとにベクトルによる表現を生成する。クエリは複数の単語または行を含むため、すべての表現を単一のベクトルに集約して、クエリ全体をベクトルとして表す必要があり、その後、コサイン類似度などの類似性メトリックを使用することができる。
ステップ324で、クエリ表現に関して、集約された単語埋込みの類似性がより高いN行のログ・セグメントのランク付けされたリストが取得される。ログ・セグメントのランク付けされたリストは、類似性メトリックを使用して、クエリの集約された単語埋込み表現をログ・データの単語埋込みモデルと比較し、類似性が所定の閾値よりも大きいログ・データの単語埋込みモデルのセグメントを返信し、取得したセグメントを類似性の値に従ってランク付けすることによって取得される。取得したセグメントのリストはステップ325で返信され、ステップ316で出力される。
本開示の実施形態によるユーザ・クエリを処理する方法の実例は以下の通りである。方法は、単語wのユーザ入力クエリを受信することによって始まる。単語wがw、w、w、w、wのようなパターンで非常に頻繁に出現すると仮定する。完全マッチングでは、このパターンは、wを検索することによって取得できる可能性がある。次に、w1、、w、w、wのような単語の別のパターンが存在すると仮定する。字句マッチングでは、このパターンはクエリwを含まないため取得されない。しかしながら、本開示の実施形態による提案されたNLP法では、これら2つのログ・セグメントのコンテキストは非常に類似しており、クエリ・パターンを取得し、ユーザに表示することができる。
本開示の実施形態は、コンピュータ・システム・ログをクエリするコンテキストで説明されているが、本開示の実施形態による方法を、1人の人が検索または理解するには大きすぎる任意のテキスト文書をクエリするために適用できることが、当業者には明らかであろう。
システムの実装
本開示の実施形態は、様々な形態のハードウェア、ソフトウェア、ファームウェア、専用プロセス、またはそれらの組合せで実装できることを理解されたい。一実施形態において、本開示の実施形態は、コンピュータ可読プログラム記憶装置上に有形に具体化されたアプリケーション・プログラムとしてソフトウェアに実装することができる。アプリケーション・プログラムは、任意の適切なアーキテクチャを含むマシンにアップロードして実行することができる。さらに、本開示は、クラウド・コンピューティングに関する詳細な説明を含むが、本明細書に記載される教示の実装形態はクラウド・コンピューティング環境に限定されるものではないことを予め理解されたい。むしろ、本開示の実施形態は、現在既知であるか、または今後開発される任意の他の種類のコンピューティング環境と共に実装することができる。本開示の実施形態による自動トラブルシューティング・システムは、クラウド実装にも適している。
クラウド・コンピューティングは、最小限の管理労力またはサービスのプロバイダとの対話によって迅速にプロビジョニングおよびリリースされ得る構成可能なコンピューティング・リソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共用プールへの便利なオンデマンド・ネットワーク・アクセスを可能にするためのサービス配信のモデルである。このクラウド・モデルは、少なくとも5つの特徴と、少なくとも3つのサービス・モデルと、少なくとも4つの配備モデルとを含むことができる。
特徴は以下の通りである。
オンデマンド・セルフサービス:クラウド消費者は、サービスのプロバイダとの人的対話を必要とせずに、必要に応じて自動的に、サーバ時間およびネットワーク・ストレージなどのコンピューティング機能を一方的にプロビジョニングすることができる。
広帯域ネットワーク・アクセス:機能はネットワークを介して利用可能であり、異種のシンまたはシック・クライアント・プラットフォーム(例えば、携帯電話、ラップトップ、およびPDA)による使用を促進する標準機構を通じてアクセスされる。
リソース・プール:マルチテナント・モデルを使用して複数の消費者に対応するために、プロバイダのコンピューティング・リソースがプールされ、需要に応じて異なる物理リソースおよび仮想リソースが動的に割当てられ、再割当てされる。消費者は一般に、提供されるリソースの正確な場所について制御することができないかまたは知らないが、より高い抽象化レベルの場所(例えば、国、州、またはデータセンタ)を指定できるという点で、場所独立感がある。
迅速な順応性:機能は、迅速かつ順応的に、場合によっては自動的にプロビジョニングされて、迅速にスケール・アウトすることができ、かつ迅速にリリースされて、迅速にスケール・インすることができる。消費者にとって、プロビジョニングのために利用可能な機能は多くの場合、無制限であるように見え、いつでも任意の量を購入することができる。
従量制サービス:クラウド・システムが、サービスの種類(例えば、ストレージ、処理、帯域幅、およびアクティブ・ユーザ・アカウント)に適切な何らかの抽象化レベルの計量機能を活用することによって、リソースの使用を自動的に制御し、最適化する。リソース使用量を監視、制御、および報告して、利用サービスのプロバイダおよび消費者の両方に透明性を提供することができる。
サービス・モデルは以下の通りである。
サービスとしてのソフトウェア(SaaS):消費者に提供される機能は、クラウド・インフラストラクチャ上で実行されるプロバイダのアプリケーションを使用することである。アプリケーションは、ウェブ・ブラウザ(例えば、ウェブ・ベースの電子メール)などのシン・クライアント・インターフェースを通じて様々なクライアント・デバイスからアクセス可能である。消費者は、限られたユーザ固有アプリケーション構成設定の考えられる例外を除いて、ネットワーク、サーバ、オペレーティング・システム、ストレージ、または個々のアプリケーション機能も含む、基礎となるクラウド・インフラストラクチャを管理または制御しない。
サービスとしてのプラットフォーム(PaaS):消費者に提供される機能は、クラウド・インフラストラクチャ上に、プロバイダによってサポートされるプログラミング言語およびツールを使用して作成された、消費者作成アプリケーションまたは消費者取得アプリケーションを配備することである。消費者は、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含む基礎となるクラウド・インフラストラクチャを管理または制御しないが、配備されたアプリケーションと、場合によってはアプリケーション・ホスティング環境構成とを制御することができる。
サービスとしてのインフラストラクチャ(IaaS):消費者に提供される機能は、処理、ストレージ、ネットワーク、およびその他の基本的なコンピューティング・リソースをプロビジョニングすることであり、消費者は、オペレーティング・システムおよびアプリケーションを含み得る任意のソフトウェアを配備および実行することができる。消費者は、基礎となるクラウド・インフラストラクチャを管理または制御しないが、オペレーティング・システム、ストレージ、配備されたアプリケーションを制御することができ、場合によっては選択されたネットワーキング・コンポーネント(例えば、ホスト・ファイアウォール)の限定的な制御を行うことができる。
配備モデルは以下の通りである。
プライベート・クラウド:このクラウド・インフラストラクチャは、組織のためにのみ運用される。これは、組織または第3者によって管理されてよく、オンプレミスまたはオフプレミスに存在してよい。
コミュニティ・クラウド:このクラウド・インフラストラクチャは、いくつかの組織によって共用され、共通の関心事(例えば、任務、セキュリティ要件、ポリシ、およびコンプライアンス事項)を有する特定のコミュニティをサポートする。これは、組織または第3者によって管理されてよく、オンプレミスまたはオフプレミスに存在してよい。
パブリック・クラウド:このクラウド・インフラストラクチャは、一般人または大規模業界団体が利用することができ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:このクラウド・インフラストラクチャは、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の複合体であり、それらのクラウドは、固有のエンティティのままであるが、データおよびアプリケーションの移植性を可能にする標準化技術または専有技術(例えば、クラウド間のロード・バランシングのためのクラウド・バースティング)によって共に結合される。
クラウド・コンピューティング環境は、ステートレス性、疎結合性、モジュール性、および意味的相互運用性に焦点を合わせたサービス指向型である。クラウド・コンピューティングの核心にあるのは、相互接続されたノードのネットワークを含むインフラストラクチャである。
次に、図4を参照して、クラウド・コンピューティング・ノードの例の概略を示す。クラウド・コンピューティング・ノード410は、適切なクラウド・コンピューティング・ノードの一例に過ぎず、本明細書に記載の本開示の実施形態の使用範囲または機能に関していかなる限定も示唆することを意図していない。それにもかかわらず、クラウド・コンピューティング・ノード410は、前述した機能のいずれかを実装するまたは実行するあるいはその両方を行うことができる。
クラウド・コンピューティング・ノード410において、多数の他の汎用もしくは専用コンピューティング・システム環境または構成と共に動作するコンピュータ・システム/サーバ412がある。コンピュータ・システム/サーバ412と共に使用するのに適切であり得る周知のコンピューティング・システム、環境、または構成、あるいはその組合せの例として、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、手持ち型デバイスまたはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサ・ベースのシステム、セット・トップ・ボックス、プログラマブル家庭用電子機器、ネットワークPC、ミニコンピュータ・システム、メインフレーム・コンピュータ・システム、および上記のシステムまたはデバイスのうちのいずれかを含む分散クラウド・コンピューティング環境などが挙げられるが、これらに限定されない。
コンピュータ・システム/サーバ412について、コンピュータ・システムによって実行されるプログラム・モジュールなどのコンピュータ・システム実行可能命令の一般的な文脈で説明することができる。一般に、プログラム・モジュールは、特定のタスクを実行するか、または特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータ・システム/サーバ412は、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される分散クラウド・コンピューティング環境で実施され得る。分散クラウド・コンピューティング環境において、プログラム・モジュールは、メモリ・ストレージ・デバイスを含む、ローカルおよびリモート両方のコンピュータ・システム記憶媒体内に配置され得る。
図4に示すように、クラウド・コンピューティング・ノード410におけるコンピュータ・システム/サーバ412は、汎用コンピューティング・デバイスの形態で示される。コンピュータ・システム/サーバ412のコンポーネントは、1つまたは複数のプロセッサまたは処理ユニット416、システム・メモリ428、およびシステム・メモリ428を含む様々なシステム・コンポーネントをプロセッサ416に結合するバス418を含むことができるが、これらに限定されない。
バス418は、様々なバス・アーキテクチャのうちのいずれかを使用する、メモリ・バスまたはメモリ・コントローラ、ペリフェラル・バス、アクセラレーテッド・グラフィックス・ポート、およびプロセッサまたはローカル・バスを含む、いくつかの種類のバス構造のうちのいずれかの1つまたは複数を表す。限定ではなく例として、このようなアーキテクチャとしては、業界標準アーキテクチャ(ISA)・バス、マイクロ・チャネル・アーキテクチャ(MCA)・バス、エンハンストISA(EISA)バス、ビデオ・エレクトロニクス・スタンダーズ・アソシエーション(VESA)・ローカル・バス、およびペリフェラル・コンポーネント・インターコネクト(PCI)・バスが挙げられる。
コンピュータ・システム/サーバ412は、通常、様々なコンピュータ・システム可読媒体を含む。そのような媒体は、コンピュータ・システム/サーバ412によってアクセス可能な任意の利用可能な媒体であってよく、揮発性媒体および不揮発性媒体と、取外し可能媒体および取外し不能媒体との両方を含む。
システム・メモリ428は、ランダム・アクセス・メモリ(RAM)430またはキャッシュ・メモリ432あるいはその両方などの揮発性メモリの形態のコンピュータ・システム可読媒体を含むことができる。コンピュータ・システム/サーバ412は、他の取外し可能/取外し不能、揮発性/不揮発性のコンピュータ・システム記憶媒体をさらに含むことができる。単に例として、取外し不能の不揮発性磁気媒体(図示せず、通常「ハード・ドライブ」と呼ばれる)に対する読取りおよび書込みを行うために、ストレージ・システム434を設けることができる。図示しないが、取外し可能な不揮発性磁気ディスク(例えば、「フロッピ・ディスク」)に対する読取りおよび書込みを行うための磁気ディスク・ドライブと、CD-ROM、DVD-ROM、または他の光媒体などの、取外し可能な不揮発性光ディスクに対する読取りおよび書込みを行うための光ディスク・ドライブとを設けることができる。このような場合、それぞれを1つまたは複数のデータ媒体インターフェースによってバス418に接続することができる。以下でさらに図示し説明するように、メモリ428は、本開示の実施形態の機能を実行するように構成された1組の(例えば、少なくとも1つの)プログラム・モジュールを有する少なくとも1つのプログラム製品を含むことができる。
限定ではなく例として、1組の(少なくとも1つの)プログラム・モジュール442を有するプログラム/ユーティリティ440、ならびにオペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データを、メモリ428に格納することができる。オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データ、またはこれらのいくつかの組合せの各々が、ネットワーキング環境の実装形態を含むことができる。プログラム・モジュール442は、一般に、本明細書に記載の本開示の実施形態の機能または方法あるいはその両方を実行する。
コンピュータ・システム/サーバ412は、キーボード、ポインティング・デバイス、ディスプレイ424などの1つまたは複数の外部デバイス414、ユーザがコンピュータ・システム/サーバ412と対話できるようにする1つまたは複数のデバイス、またはコンピュータ・システム/サーバ412が1つまたは複数の他のコンピューティング・デバイスと通信できるようにする任意のデバイス(例えば、ネットワーク・カード、モデムなど)、あるいはその組合せと通信することもできる。そのような通信は、入出力(I/O)インターフェース422を介して行うことができる。さらに、コンピュータ・システム/サーバ412は、ネットワーク・アダプタ420を介して、ローカル・エリア・ネットワーク(LAN)、汎用ワイド・エリア・ネットワーク(WAN)、またはパブリック・ネットワーク(例えば、インターネット)、あるいはその組合せなどの1つまたは複数のネットワークと通信することができる。図示のように、ネットワーク・アダプタ420は、バス418を介してコンピュータ・システム/サーバ412の他のコンポーネントと通信する。図示しないが、他のハードウェア・コンポーネントまたはソフトウェア・コンポーネントあるいはその両方を、コンピュータ・システム/サーバ412と共に使用してもよいことを理解されたい。例として、マイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイバル・ストレージ・システムなどが挙げられるが、これらに限定されない。
次に図5を参照して、例示的なクラウド・コンピューティング環境50を示す。図示のように、クラウド・コンピューティング環境50は、1つまたは複数のクラウド・コンピューティング・ノード400を含み、この1つまたは複数のクラウド・コンピューティング・ノード400と、例えば、パーソナル・デジタル・アシスタント(PDA)もしくは携帯電話54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54N、あるいはその組合せなどの、クラウド消費者によって使用されるローカル・コンピューティング・デバイスとが、通信することができる。ノード400は相互に通信することができる。ノード400は、前述したプライベート・クラウド、コミュニティ・クラウド、パブリック・クラウド、またはハイブリッド・クラウド、あるいはその組合せなどの1つまたは複数のネットワークにおいて、物理的または仮想的にグループ化(図示せず)され得る。これにより、クラウド・コンピューティング環境50は、インフラストラクチャ、プラットフォーム、またはソフトウェア、あるいはその組合せを、クラウド消費者がそのためにローカル・コンピューティング・デバイス上でリソースを維持する必要がないサービスとして提供することができる。図5に示すコンピューティング・デバイス54A~54Nの種類は、例示に過ぎないことを意図したものであり、コンピューティング・ノード400およびクラウド・コンピューティング環境50が、(例えば、ウェブ・ブラウザを使用して)任意の種類のネットワークまたはネットワーク・アドレス可能接続あるいはその両方を介して任意の種類のコンピュータ化デバイスと通信することができるものと理解される。
本発明の実施形態について、例示的な実施形態を参照して詳細に説明したが、添付の特許請求の範囲に記載されている本発明の範囲から逸脱することなく、様々な修正および置換を行うことができることが、当業者には理解されよう。

Claims (21)

  1. テキスト文書のコンテキスト・アウェア・データ・マイニングのコンピュータ実装方法であって、
    入力クエリから構文解析および前処理された単語のリストを受信するステップと、
    クエリされている前記テキスト文書の単語埋込みモデルを使用して、前記単語のリスト内の単語ごとの関連する分散埋込み表現を計算するステップと、
    単一の埋込みで前記入力クエリを表すために、前記単語のリスト内のすべての単語の前記関連する分散埋込み表現を集約するステップと、
    前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップと、
    前記取得したセグメントのリストをユーザに返信するステップと
    を含む、方法。
  2. 前記関連する分散埋込み表現を集約するステップが、すべての前記関連する分散埋込み表現の平均またはすべての前記関連する分散埋込み表現の最大値のうちの一方を使用して実行される、請求項1に記載の方法。
  3. Nが前記ユーザによって提供される正の整数である、請求項1に記載の方法。
  4. 前記テキスト文書の前記単語埋込みモデルをトレーニングするステップをさらに含み、前記ステップが、
    前記テキスト文書を構文解析および前処理し、トークン化された単語リストを生成するステップと、
    前記トークン化された単語リストから単語辞書を定義するステップであって、前記単語辞書が前記トークン化された単語リスト内のトークンの少なくとも一部を含む、前記定義するステップと、
    前記単語埋込みモデルをトレーニングするステップであって、前記単語埋込みモデルが、前記単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、前記トレーニングするステップと
    を含む、請求項1に記載の方法。
  5. 前記テキスト文書を構文解析および前処理するステップが、
    前記テキスト文書内の各行からすべての句読点およびプリアンブルを削除するステップと、
    数値データを解析するステップと、
    トークン化された単語リストを形成するために前記テキスト文書を単語でトークン化するステップであって、トークンが前記文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化するステップと、
    前記トークン化された単語リストを返信するステップと
    を含む、請求項4に記載の方法。
  6. 前記テキスト文書がコンピュータ・システム・ログであり、前記数値データが10進数および16進アドレスを含む、請求項5に記載の方法。
  7. 前記入力クエリからすべての句読点を削除することと、
    数値データを解析することと、
    トークン化された単語リストを生成するために前記入力クエリを単語でトークン化することであって、トークンが前記入力クエリの単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化することと、
    前記トークン化された単語リストを返信することと
    によって、前記入力クエリを構文解析および前処理するステップをさらに含む、請求項1に記載の方法。
  8. 前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップが、
    類似性メトリックを使用して、前記クエリの前記集約された単語埋込み表現を前記テキスト文書の前記単語埋込みモデルと比較するステップと、
    前記クエリの前記集約された単語埋込み表現との類似性が所定の閾値よりも大きい前記テキスト文書の前記単語埋込みモデルのセグメントを返信するステップと、
    前記取得した文書セグメントを前記類似性に従ってランク付けするステップと
    を含む、請求項1に記載の方法。
  9. テキスト文書のコンテキスト・アウェア・データ・マイニングのコンピュータ実装方法であって、
    前記テキスト文書を構文解析および前処理し、トークン化された単語リストを生成するステップと、
    前記トークン化された単語リストから単語辞書を定義するステップであって、前記単語辞書が前記トークン化された単語リスト内のトークンの少なくとも一部を含む、前記定義するステップと、
    単語埋込みモデルをトレーニングするステップであって、前記単語埋込みモデルが、前記単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、前記トレーニングするステップとを含み、
    前記テキスト文書を構文解析および前処理するステップが、
    前記テキスト文書内の各行からすべての句読点およびプリアンブルを削除するステップと、
    数値データを解析するステップと、
    トークン化された単語リストを形成するために前記テキスト文書を単語でトークン化するステップであって、トークンが前記文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化するステップと、
    前記トークン化された単語リストを返信するステップと
    を含む、方法。
  10. 入力クエリから構文解析および前処理された単語のリストを受信するステップと、
    クエリされている前記テキスト文書の前記単語埋込みモデルを使用して、単語ごとの関連する分散埋込み表現を計算するステップと、
    単一の埋込みで前記クエリを表すために、前記単語のリスト内のすべての単語の前記関連する分散埋込み表現を集約するステップと、
    前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップと、
    前記取得したセグメントのリストをユーザに返信するステップと
    をさらに含む、請求項9に記載の方法。
  11. 前記入力クエリからすべての句読点を削除することと、
    数値データを解析することと、
    トークン化された単語リストを生成するために前記入力クエリを単語でトークン化することであって、トークンが前記入力クエリの単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化することと、
    前記トークン化された単語リストを返信することと
    によって、前記入力クエリを構文解析および前処理するステップをさらに含む、請求項10に記載の方法。
  12. 前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップが、
    類似性メトリックを使用して、前記クエリの前記集約された単語埋込み表現を前記テキスト文書の前記単語埋込みモデルと比較するステップと、
    前記クエリの前記集約された単語埋込み表現との類似性が所定の閾値よりも大きい前記テキスト文書の前記単語埋込みモデルのセグメントを返信するステップと、
    前記取得した文書セグメントを前記類似性に従ってランク付けするステップと
    を含む、請求項10に記載の方法。
  13. 前記テキスト文書がコンピュータ・システム・ログであり、前記数値データが10進数および16進アドレスを含む、請求項9に記載の方法。
  14. 前記関連する分散埋込み表現を集約するステップが、すべての前記関連する分散埋込み表現の平均またはすべての前記関連する分散埋込み表現の最大値のうちの一方を使用して実行される、請求項10に記載の方法。
  15. Nが前記ユーザによって提供される正の整数である、請求項10に記載の方法。
  16. テキスト文書のコンテキスト・アウェア・データ・マイニングのための方法のステップを実行するためにコンピュータによって実行可能な命令のプログラムを有形に具体化するコンピュータ可読プログラム記憶装置であって、
    前記方法が、
    入力クエリから構文解析および前処理された単語のリストを受信するステップと、
    クエリされている前記テキスト文書の単語埋込みモデルを使用して、前記単語のリスト内の単語ごとの関連する分散埋込み表現を計算するステップと、
    すべての前記関連する分散埋込み表現の平均またはすべての関連する分散埋込み表現の最大値のうちの一方を使用して、単一の埋込みで前記入力クエリを表すために、前記単語のリスト内のすべての単語の前記関連する分散埋込み表現を集約するステップと、
    前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップであって、Nがユーザによって提供される正の整数である、前記取得するステップと、
    前記取得したセグメントのリストを前記ユーザに返信するステップと
    を含む、コンピュータ可読プログラム記憶装置。
  17. 前記方法が、前記テキスト文書の前記単語埋込みモデルをトレーニングするステップをさらに含み、前記ステップが、
    前記テキスト文書を構文解析および前処理し、トークン化された単語リストを生成するステップと、
    前記トークン化された単語リストから単語辞書を定義するステップであって、前記単語辞書が前記トークン化された単語リスト内のトークンの少なくとも一部を含む、前記定義するステップと、
    前記単語埋込みモデルをトレーニングするステップであって、前記単語埋込みモデルが、前記単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、前記トレーニングするステップと
    を含み、
    前記テキスト文書を構文解析および前処理するステップが、
    前記テキスト文書内の各行からすべての句読点およびプリアンブルを削除するステップと、
    数値データを解析するステップと、
    トークン化された単語リストを形成するために前記テキスト文書を単語でトークン化するステップであって、トークンが前記文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化するステップと、
    前記トークン化された単語リストを返信するステップと
    を含む、
    請求項16に記載のコンピュータ可読プログラム記憶装置。
  18. 前記テキスト文書がコンピュータ・システム・ログであり、前記数値データが10進数および16進アドレスを含む、請求項17に記載のコンピュータ可読プログラム記憶装置。
  19. 前記方法が、
    前記入力クエリからすべての句読点を削除することと、
    数値データを解析することと、
    トークン化された単語リストを生成するために前記入力クエリを単語でトークン化することであって、トークンが前記入力クエリの単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化することと、
    前記トークン化された単語リストを返信することと
    によって、前記入力クエリを構文解析および前処理するステップをさらに含む、請求項16に記載のコンピュータ可読プログラム記憶装置。
  20. 前記クエリの前記集約された単語埋込み表現に類似したN行の文書セグメントのランク付けされたリストを取得するステップが、
    類似性メトリックを使用して、前記クエリの前記集約された単語埋込み表現を前記テキスト文書の前記単語埋込みモデルと比較するステップと、
    前記クエリの前記集約された単語埋込み表現との類似性が所定の閾値よりも大きい前記テキスト文書の前記単語埋込みモデルのセグメントを返信するステップと、
    前記取得した文書セグメントを前記類似性に従ってランク付けするステップと
    を含む、請求項16に記載のコンピュータ可読プログラム記憶装置。
  21. テキスト文書のコンテキスト・アウェア・データ・マイニングのための方法のステップを実行するためにコンピュータによって実行可能な命令のプログラムを有形に具体化するコンピュータ可読プログラム記憶装置であって、
    前記方法が、
    前記テキスト文書を構文解析および前処理し、トークン化された単語リストを生成するステップと、
    前記トークン化された単語リストから単語辞書を定義するステップであって、前記単語辞書が前記トークン化された単語リスト内のトークンの少なくとも一部を含む、前記定義するステップと、
    単語埋込みモデルをトレーニングするステップであって、前記単語埋込みモデルが、前記単語辞書内の各単語または行をベクトルで表すニューラル・ネットワーク・モデルである、前記トレーニングするステップとを含み、
    前記テキスト文書を構文解析および前処理するステップが、
    前記テキスト文書内の各行からすべての句読点およびプリアンブルを削除するステップと、
    数値データを解析するステップと、
    トークン化された単語リストを形成するために前記テキスト文書を単語でトークン化するステップであって、トークンが前記文書の単一の単語、N個の連続した単語のNグラム、または行全体のうちの1つである、前記トークン化するステップと、
    前記トークン化された単語リストを返信するステップと
    を含む、コンピュータ可読プログラム記憶装置。
JP2021561867A 2019-06-11 2020-05-27 コンテキスト・アウェア・データ・マイニング Active JP7481074B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/437,989 US11409754B2 (en) 2019-06-11 2019-06-11 NLP-based context-aware log mining for troubleshooting
US16/437,989 2019-06-11
PCT/IB2020/054997 WO2020250064A1 (en) 2019-06-11 2020-05-27 Context-aware data mining

Publications (3)

Publication Number Publication Date
JP2022536241A true JP2022536241A (ja) 2022-08-15
JPWO2020250064A5 JPWO2020250064A5 (ja) 2022-10-21
JP7481074B2 JP7481074B2 (ja) 2024-05-10

Family

ID=73745061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021561867A Active JP7481074B2 (ja) 2019-06-11 2020-05-27 コンテキスト・アウェア・データ・マイニング

Country Status (6)

Country Link
US (1) US11409754B2 (ja)
JP (1) JP7481074B2 (ja)
CN (1) CN113906445A (ja)
DE (1) DE112020002886T5 (ja)
GB (1) GB2599300A (ja)
WO (1) WO2020250064A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220224515A1 (en) * 2021-01-10 2022-07-14 Nec Corporation Of America Multi-party computation (mpc) based key search in private data

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021005433A1 (ja) * 2019-07-05 2021-01-14 株式会社半導体エネルギー研究所 読解支援システム及び読解支援方法
US20220350827A1 (en) * 2019-10-03 2022-11-03 Semiconductor Energy Laboratory Co., Ltd. Document data processing method and document data processing system
US20220138556A1 (en) * 2020-11-04 2022-05-05 Nvidia Corporation Data log parsing system and method
US11816242B2 (en) * 2021-07-14 2023-11-14 Capital One Services, Llc Log compression and obfuscation using embeddings
CN113792119A (zh) * 2021-09-17 2021-12-14 平安科技(深圳)有限公司 一种文章原创度评价系统、方法、设备及介质
US20240089275A1 (en) * 2022-09-09 2024-03-14 International Business Machines Corporation Log anomaly detection in continuous artificial intelligence for it operations
CN116682543B (zh) * 2023-08-03 2023-11-10 山东大学齐鲁医院 一种区域康复信息的共享方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017037801A1 (ja) * 2015-08-28 2017-03-09 株式会社日立製作所 監視システムおよび監視方法
US20180137137A1 (en) * 2016-11-16 2018-05-17 International Business Machines Corporation Specialist keywords recommendations in semantic space
JP2018124914A (ja) * 2017-02-03 2018-08-09 日本電信電話株式会社 パッセージ型質問応答装置、方法、及びプログラム
JP2018181343A (ja) * 2017-04-14 2018-11-15 セールスフォース ドット コム インコーポレイティッド 抽象的要約のためのディープ強化モデル

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040254919A1 (en) * 2003-06-13 2004-12-16 Microsoft Corporation Log parser
US20050060643A1 (en) * 2003-08-25 2005-03-17 Miavia, Inc. Document similarity detection and classification system
US20060106793A1 (en) * 2003-12-29 2006-05-18 Ping Liang Internet and computer information retrieval and mining with intelligent conceptual filtering, visualization and automation
US20080040339A1 (en) * 2006-08-07 2008-02-14 Microsoft Corporation Learning question paraphrases from log data
US8036464B2 (en) * 2007-09-07 2011-10-11 Satyam Computer Services Limited System and method for automatic segmentation of ASR transcripts
US20090300054A1 (en) * 2008-05-29 2009-12-03 Kathleen Fisher System for inferring data structures
US8130667B2 (en) * 2008-09-19 2012-03-06 Texas Instruments Incorporated Preamble group selection in random access of wireless networks
US20110208715A1 (en) * 2010-02-23 2011-08-25 Microsoft Corporation Automatically mining intents of a group of queries
US9965129B2 (en) * 2012-06-01 2018-05-08 Excalibur Ip, Llc Personalized content from indexed archives
US9280520B2 (en) 2012-08-02 2016-03-08 American Express Travel Related Services Company, Inc. Systems and methods for semantic information retrieval
US9313091B1 (en) 2013-09-26 2016-04-12 Emc Corporation Analytics platform for automated diagnosis, remediation, and proactive supportability
US20160162467A1 (en) * 2014-12-09 2016-06-09 Idibon, Inc. Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
IN2015CH01424A (ja) 2015-03-20 2015-04-10 Wipro Ltd
US20200402049A1 (en) * 2015-06-11 2020-12-24 APPI Technologia S/A (D.B.A. MUXI) Antifraud Resilient Transaction Identifier Datastructure Apparatuses, Methods and Systems
US10606946B2 (en) * 2015-07-06 2020-03-31 Microsoft Technology Licensing, Llc Learning word embedding using morphological knowledge
US9990353B2 (en) 2015-12-22 2018-06-05 Successfactors, Inc. Natural language interface for software customization
US10061845B2 (en) * 2016-02-18 2018-08-28 Fmr Llc Analysis of unstructured computer text to generate themes and determine sentiment
US10289509B2 (en) 2016-04-06 2019-05-14 Nec Corporation System failure prediction using long short-term memory neural networks
US10402495B1 (en) * 2016-09-01 2019-09-03 Facebook, Inc. Abstractive sentence summarization
WO2018092924A1 (ko) 2016-11-15 2018-05-24 (주) 글루시스 스마트 컴퓨팅을 위한 시스템 자원의 장애 예측 방법
WO2018093904A1 (en) * 2016-11-17 2018-05-24 Goldman Sachs & Co. LLC System and method for coupled detection of syntax and semantics for natural language understanding and generation
US10740170B2 (en) 2016-12-08 2020-08-11 Nec Corporation Structure-level anomaly detection for unstructured logs
CN106777191B (zh) 2016-12-23 2021-05-04 北京奇虎科技有限公司 一种基于搜索引擎的检索模式生成方法及装置
US10565244B2 (en) * 2017-06-22 2020-02-18 NewVoiceMedia Ltd. System and method for text categorization and sentiment analysis
US20190043486A1 (en) * 2017-08-04 2019-02-07 EMR.AI Inc. Method to aid transcribing a dictated to written structured report
US10706229B2 (en) * 2017-09-28 2020-07-07 Nec Corporation Content aware heterogeneous log pattern comparative analysis engine
US10664512B1 (en) * 2018-02-13 2020-05-26 Snap Inc. Query matching to media collections in a messaging system
CN108399163B (zh) 2018-03-21 2021-01-12 北京理工大学 结合词聚合与词组合语义特征的文本相似性度量方法
DE112019001497T5 (de) * 2018-03-23 2021-01-07 Semiconductor Energy Laboratory Co., Ltd. System zur Dokumentensuche, Verfahren zur Dokumentensuche, Programm und nicht-transitorisches, von einem Computer lesbares Speichermedium
US11120033B2 (en) * 2018-05-16 2021-09-14 Nec Corporation Computer log retrieval based on multivariate log time series
US10459962B1 (en) * 2018-09-19 2019-10-29 Servicenow, Inc. Selectively generating word vector and paragraph vector representations of fields for machine learning
US11562135B2 (en) * 2018-10-16 2023-01-24 Oracle International Corporation Constructing conclusive answers for autonomous agents
US10769378B2 (en) * 2018-11-14 2020-09-08 International Business Machines Corporation Extending system entities for conversational system
US11308320B2 (en) * 2018-12-17 2022-04-19 Cognition IP Technology Inc. Multi-segment text search using machine learning model for text similarity
US11080490B2 (en) * 2019-03-28 2021-08-03 Servicenow, Inc. Pre-training of virtual chat interfaces
US20200372550A1 (en) * 2019-05-24 2020-11-26 relemind GmbH Systems for creating and/or maintaining databases and a system for facilitating online advertising with improved privacy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017037801A1 (ja) * 2015-08-28 2017-03-09 株式会社日立製作所 監視システムおよび監視方法
US20180137137A1 (en) * 2016-11-16 2018-05-17 International Business Machines Corporation Specialist keywords recommendations in semantic space
JP2018124914A (ja) * 2017-02-03 2018-08-09 日本電信電話株式会社 パッセージ型質問応答装置、方法、及びプログラム
JP2018181343A (ja) * 2017-04-14 2018-11-15 セールスフォース ドット コム インコーポレイティッド 抽象的要約のためのディープ強化モデル

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
采野 友紀也: "Word2Vecを用いたバグ報告からの不具合ファイル特定", 電子情報通信学会技術研究報告, vol. 第115巻, 第508号, JPN6023049820, 3 March 2016 (2016-03-03), JP, pages 55 - 60, ISSN: 0005211626 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220224515A1 (en) * 2021-01-10 2022-07-14 Nec Corporation Of America Multi-party computation (mpc) based key search in private data

Also Published As

Publication number Publication date
DE112020002886T5 (de) 2022-02-24
CN113906445A (zh) 2022-01-07
US11409754B2 (en) 2022-08-09
JP7481074B2 (ja) 2024-05-10
GB2599300A (en) 2022-03-30
GB202117769D0 (en) 2022-01-26
WO2020250064A1 (en) 2020-12-17
US20200394186A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
JP7481074B2 (ja) コンテキスト・アウェア・データ・マイニング
US10558756B2 (en) Unsupervised information extraction dictionary creation
US10956684B2 (en) Topic kernelization for real-time conversation data
US10452702B2 (en) Data clustering
CN112136125A (zh) 用于自然语言分类的训练数据扩展
US10740374B2 (en) Log-aided automatic query expansion based on model mapping
US20210319054A1 (en) Encoding entity representations for cross-document coreference
US20160306852A1 (en) Answering natural language table queries through semantic table representation
US20200223061A1 (en) Automating a process using robotic process automation code
US10037362B1 (en) Mining procedure dialogs from source content
US11188193B2 (en) Method and system for generating a prioritized list
US11416823B2 (en) Resolution and pipelining of helpdesk tickets needing resolutions from multiple groups
US10558747B2 (en) Unsupervised information extraction dictionary creation
JP7539201B2 (ja) 階層クラスタリングを使用する希少トピック検出
US20220092096A1 (en) Automatic generation of short names for a named entity
US11645110B2 (en) Intelligent generation and organization of user manuals
US20230222358A1 (en) Artificial intelligence operations adaptive multi-granularity event grouping
US11270075B2 (en) Generation of natural language expression variants
US20220067539A1 (en) Knowledge induction using corpus expansion
US20230409806A1 (en) Permutation invariance for representing linearized tabular data
US20200372056A1 (en) Automatic summarization with bias minimization
US20200372101A1 (en) Automatic summarization with bias minimization

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20240301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20240304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20240411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240423

R150 Certificate of patent or registration of utility model

Ref document number: 7481074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150