JP2019194808A - 事象予測装置、予測モデル生成装置および事象予測用プログラム - Google Patents

事象予測装置、予測モデル生成装置および事象予測用プログラム Download PDF

Info

Publication number
JP2019194808A
JP2019194808A JP2018088829A JP2018088829A JP2019194808A JP 2019194808 A JP2019194808 A JP 2019194808A JP 2018088829 A JP2018088829 A JP 2018088829A JP 2018088829 A JP2018088829 A JP 2018088829A JP 2019194808 A JP2019194808 A JP 2019194808A
Authority
JP
Japan
Prior art keywords
sentence
word
sentences
prediction
index value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018088829A
Other languages
English (en)
Other versions
JP6915809B2 (ja
Inventor
博義 豊柴
Hiroyoshi TOYOSHIBA
博義 豊柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fronteo Healthcare Inc
Original Assignee
Fronteo Healthcare Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018088829A priority Critical patent/JP6915809B2/ja
Application filed by Fronteo Healthcare Inc filed Critical Fronteo Healthcare Inc
Priority to CN201980029244.3A priority patent/CN112106040A/zh
Priority to US17/050,523 priority patent/US20210042586A1/en
Priority to EP19797043.7A priority patent/EP3779728A4/en
Priority to PCT/JP2019/017193 priority patent/WO2019212006A1/ja
Priority to KR1020207030777A priority patent/KR102315984B1/ko
Publication of JP2019194808A publication Critical patent/JP2019194808A/ja
Priority to JP2021110137A priority patent/JP6962532B1/ja
Application granted granted Critical
Publication of JP6915809B2 publication Critical patent/JP6915809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)

Abstract

【課題】学習により生成する分類モデルの精度を上げて、予測の精度を向上させることができるようにする。【解決手段】m個の文章を学習用データとして入力する学習用データ入力部10と、m個の文章からn個の単語を抽出し、m個の文章およびn個の単語間の関係性を反映した類似性指標値を算出する類似性指標値算出部100と、1つの文章についてn個の類似性指標値から成る文章指標値群をもとに、m個の文章を複数の事象に分類するための分類モデルを生成する分類モデル生成部14と、予測用データ入力部20により入力される文章から類似性指標値算出部100により算出される類似性指標値を分類モデルに適用することにより、予測対象の文章から複数の事象の何れかを予測する事象予測部21とを備え、どの単語がどの文章に対してどの程度寄与しているのかを表した類似性指標値を用いて高精度な分類モデルを生成する。【選択図】図1

Description

本発明は、事象予測装置、予測モデル生成装置および事象予測用プログラムに関し、特に、複数の単語を含む文章の内容に基づいて特定の事象を予測する技術および、この予測に用いる予測モデルを生成する技術に関するものである。
従来、人工知能(AI)を使って特定の事象を予測する技術が広く使われている。人工知能の1つとして機械学習がある。機械学習は、人間が行っている学習と同様の機能をコンピュータで実現しようとする技術のことであり、教師あり学習、教師なし学習および強化学習の3つに大別される。最も広く普及している教師あり学習は、正解付きの多数の教師データを用意して、それを用いて学習を行うことによって分類モデルを生成し、生成した分類モデルをもとに予測対象のデータを分類するというものである。
何を教師データとして用いるかは多様であるが、文書データを教師データとして用いて機械学習を行うシステムが古くから知られている(例えば、特許文献1,2参照)。
特許文献1には、テキストデータから利用者の意図に合った規則性を容易に発見可能なテキストデータ分析装置が開示されている。この特許文献1に記載のテキストデータ分析装置では、テキストを分類するクラスを格納するテキストクラス格納部と、対象としている分野において重要な概念を示す単語の集合を概念定義辞書として格納する概念定義辞書格納部と、テキストの分析を行うテキスト分析部とを備える。テキスト分析部は、形態素解析によってテキストから単語列を生成し、得られた単語列からテキストの特徴を抽出し、テキストの特徴とそれに対応するクラスとを示す事例を生成し、生成された事例を用いて帰納学習を行うことにより、判断規則を生成してルール格納部に格納する。
特許文献2には、正解データに基づき機械学習を行うことにより文書を分類する文書分類装置が開示されている。この特許文献2に記載の文書分類装置では、正解データから、新たな事例を作り出すための元となる正解事例を機械学習の方式に応じて選択し、選択された正解事例から新たな正解事例を所定のルールに基づいて作り出し、機械学習用の正解事例の全部または一部に追加して機械学習用の正解データを作成する。
特開2002−149675号公報 特開2004−287776号公報
機械学習によって事象の予測を行う場合に、予測の精度を上げるためには、学習によって生成する分類モデルの精度を上げることが欠かせない。この点、特許文献2に記載の文書分類装置では、既にある機械学習のための正解事例から新たな事例を作り出すことにより、事例のバリエーションを増やして機械学習の精度を上げることを可能としている。
しかしながら、ただ事例の数を増やすだけでは、生成する分類モデルの精度を上げるのに限界がある。新たに作り出される事例が全て教師データとして適切なものとは限らないからである。また、適切な事例の数が増えたとしても、分類モデルを生成するアルゴリズムが十分に改良されていなければ、高精度な分類モデルを生成することが期待できないからである。
例えば、上記特許文献1のように、形態素解析によってテキストから得られた単語列に基づいてテキストの特徴を抽出する方式では、ただ単にテキスト内にどのような単語が含まれているかによって特徴データが生成されているだけであり、このような特徴データをもとに生成される分類モデルの精度を十分に上げることは難しい。同じ単語が複数のテキスト内に含まれる可能性があるのに対し、どの単語がどのテキストに対してどの程度寄与しているのか、あるいは、どのテキストがどの単語に対してどの程度寄与しているのかが特徴データとして十分に評価されていないからである。
本発明は、このような問題を解決するために成されたものであり、複数の単語を含む文章を対象として機械学習によって事象の予測を行う場合において、学習によって生成する分類モデルの精度を上げて、予測の精度を向上させることができるようにすることを目的とする。
上記した課題を解決するために、本発明の事象予測装置では、m個の文章を解析して当該m個の文章からn個の単語を抽出し、m個の文章をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るm個の文章ベクトルを算出するとともに、n個の単語をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るn個の単語ベクトルを算出し、さらに、m個の文章ベクトルとn個の単語ベクトルとの内積をそれぞれとることにより、m個の文章およびn個の単語間の関係性を反映したm×n個の類似性指標値を算出する。そして、1つの文章についてn個の類似性指標値から成る文章指標値群をもとに、m個の文章を複数の事象に分類するための分類モデルを生成するようにしている。予測対象とする文章から事象を予測する際には、1つ以上の文章を予測用データとして入力し、当該入力した予測用データに対して単語抽出、文章ベクトル算出、単語ベクトル算出および指標値算出の各処理を実行することによって得られる類似性指標値を分類モデルに適用することにより、予測対象データから複数の事象の何れかを予測するようにしている。
上記のように構成した本発明によれば、文章から算出された文章ベクトルと、文章内に含まれる単語から算出された単語ベクトルとの内積を計算することによって、文章および単語間の関係性を反映した類似性指標値が算出されるので、どの単語がどの文章に対してどの程度寄与しているのか、あるいは、どの文章がどの単語に対してどの程度寄与しているのかを内積の値として得ることができる。そして、このような性質を有する類似性指標値を用いて分類モデルが生成されるので、m個の文章とn個の単語との寄与度を加味した上で、文章を複数の事象のうち何れかに適切に分類することができるようになる。よって、本発明によれば、文章を対象として機械学習によって事象の予測を行う場合において、学習によって生成する分類モデルの精度を上げて、文章から事象を予測する精度を向上させることができる。
本実施形態による事象予測装置の機能構成例を示すブロック図である。 本実施形態による事象予測装置の動作例を示すフローチャートである。 本実施形態による事象予測装置の他の機能構成例を示すブロック図である。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による事象予測装置の機能構成例を示すブロック図である。本実施形態の事象予測装置は、その機能構成として、学習用データ入力部10、単語抽出部11、ベクトル算出部12、指標値算出部13、分類モデル生成部14、予測用データ入力部20および事象予測部21を備えて構成されている。ベクトル算出部12は、より具体的な機能構成として、文章ベクトル算出部12Aおよび単語ベクトル算出部12Bを備えている。また、本実施形態の事象予測装置は、記憶媒体として、分類モデル記憶部30を備えている。
なお、以下の説明の便宜上、単語抽出部11、ベクトル算出部12および指標値算出部13で構成される部分を類似性指標値算出部100と称する。類似性指標値算出部100は、文章に関する文章データを入力し、文章とその中に含まれる単語との関係性を反映した類似性指標値を算出して出力するものである。また、本実施形態の事象予測装置は、類似性指標値算出部100により算出される類似性指標値を利用して、文章の内容から特定の事象を予測する(複数の事象のうちどれに該当するかを予測する)ものである。なお、学習用データ入力部10、類似性指標値算出部100および分類モデル生成部14により、本発明の予測モデル生成装置が構成される。
上記各機能ブロック10〜14,20〜21は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10〜14,20〜21は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
学習用データ入力部10は、複数の事象のうちどれに該当するかが既知であるm個(mは2以上の任意の整数)の文章に関する文章データを学習用データとして入力する。ここで、複数の事象は、2つであってもよいし、3つ以上であってもよい。例えば、特定の障害や症状が発生する可能性などのように、1つの事柄に関する発生可能性の有無を表す2つの事象とすることが可能である。あるいは、人の性格タイプや趣味趣向などのように、互いに性質の異なる2つ以上の事象の組み合わせとすることも可能である。なお、ここに挙げた事象は一例に過ぎず、これに限定されるものではない。
入力する文章データは、予測したい複数の事象に関連する文章が記述されたデータとするのが好ましい。例えば、システム障害の発生可能性の有無を予測するための予測モデルの構築を目的として学習用データを入力する場合は、システムの監視または検査の結果を記述したレポートに関する文章データを入力するといった具合である。
ただし、人の性格タイプや趣味趣向などを予測することなどが目的の場合は、予測したい複数の事象とはいっけん無関係と思われる文章であっても、以下に述べる解析によって、文章と事象との関係性が見出される可能性もあり得る。よって、予測したい複数の事象に関連すると人間が判断した文章のみを学習用データとすることは必須ではない。すなわち、予測したい複数の事象の内容によっては、当該複数の事象に明らかに関連する文章が記述されたデータのみならず、当該複数の事象にいっけん無関係と思われる文章が記述されたデータを含めて学習用データとして入力するようにしてもよい。
また、学習用データ入力部10により入力する文章、つまり、後述の解析対象とする文章は、1つのセンテンス(句点によって区切られる単位)から成るものであってもよいし、複数のセンテンスから成るものであってもよい。複数のセンテンスから成る文章は、1つの文書に含まれる一部または全部の文章であってもよい。1つの文書に含まれる一部の文章を学習用データとして使用する場合、学習用データ入力部10は、文書の中のどの部分の文章を学習用データとして使用するのかを設定した状態で、文章データを入力する(厳密に言うと、文書データを入力して、その文書の中の設定部分を文章データとして使用する)。例えば、複数の記載項目が存在する文書の中で、特定の記載項目に関する文章を学習用データとして使用するように設定することが考えられる。設定する記載項目は、1つでもよいし、複数でもよい。
単語抽出部11は、学習用データ入力部10により入力されたm個の文章を解析し、当該m個の文章からn個(nは2以上の任意の整数)の単語を抽出する。文章の解析方法としては、例えば、公知の形態素解析を用いることが可能である。ここで、単語抽出部11は、形態素解析によって分割される全ての品詞の形態素を単語として抽出するようにしてもよいし、特定の品詞の形態素のみを単語として抽出するようにしてもよい。
なお、m個の文章の中には、同じ単語が複数含まれていることがある。この場合、単語抽出部11は、同じ単語を複数個抽出することはせず、1つのみ抽出する。すなわち、単語抽出部11が抽出するn個の単語とは、n種類の単語という意味である。ここで、単語抽出部11は、m個の文章から同じ単語が抽出される頻度を計測し、出現頻度が大きい方からn個(n種類)の単語、あるいは出現頻度が閾値以上であるn個(n種類)の単語を抽出するようにしてもよい。
ベクトル算出部12は、m個の文章およびn個の単語から、m個の文章ベクトルおよびn個の単語ベクトルを算出する。ここで、文章ベクトル算出部12Aは、単語抽出部11による解析対象とされたm個の文章をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個(qは2以上の任意の整数)の軸成分から成るm個の文章ベクトルを算出する。また、単語ベクトル算出部12Bは、単語抽出部11により抽出されたn個の単語をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るn個の単語ベクトルを算出する。
本実施形態では、一例として、以下のようにして文章ベクトルおよび単語ベクトルを算出する。今、m個の文章とn個の単語とから成る集合S=<d∈D,w∈W>を考える。ここで、各文章d(i=1,2,・・・,m)および各単語w(j=1,2,・・・,n)に対してそれぞれ文章ベクトルd→および単語ベクトルw→(以下では、記号“→”はベクトルであることを指すものとする)を関連付ける。そして、任意の単語wと任意の文章dに対して、次の式(1)に示す確率P(w|d)を計算する。
なお、この確率P(w|d)は、例えば、文章や文書をパラグラフ・ベクトルにより評価することについて記述した論文「“Distributed Representations of Sentences and Documents”by Quoc Le and Tomas Mikolov, Google Inc, Proceedings of the 31st International Conference on Machine Learning Held in Bejing, China on 22-24 June 2014」に開示されている確率pに倣って算出することが可能な値である。この論文には、例えば、“the”、“cat”、“sat”という3つの単語があるときに、4つ目の単語として“on”を予測するとあり、その予測確率pの算出式が掲載されている。当該論文に記載されている確率p(wt|wt-k,・・・,wt+k)は、複数の単語wt-k,・・・,wt+kから別の1つの単語wtを予測したときの正解確率である。
これに対し、本実施形態で用いる式(1)に示される確率P(w|d)は、m個の文章のうち一の文章dから、n個の単語のうち一の単語wが予想される正解確率を表している。1つの文章dから1つの単語wを予測するというのは、具体的には、ある文章dが出現したときに、その中に単語wが含まれる可能性を予測するということである。
式(1)では、eを底とし、単語ベクトルw→と文章ベクトルd→との内積値を指数とする指数関数値を用いる。そして、予測対象とする文章dと単語wとの組み合わせから計算される指数関数値と、文章dとn個の単語w(k=1,2,・・・,n)との各組み合わせから計算されるn個の指数関数値の合計値との比率を、一の文章dから一の単語wが予想される正解確率として計算している。
ここで、単語ベクトルw→と文章ベクトルd→との内積値は、単語ベクトルw→を文章ベクトルd→の方向に投影した場合のスカラ値、つまり、単語ベクトルw→が有している文章ベクトルd→の方向の成分値とも言える。これは、単語wが文章dに寄与している程度を表していると考えることができる。したがって、このような内積を利用して計算される指数関数値を用いて、n個の単語w(k=1,2,・・・,n)について計算される指数関数値の合計に対する、1つの単語wについて計算される指数関数値の比率を求めることは、1つの文章dからn個の単語のうち1つの単語wが予想される正解確率を求めることに相当する。
なお、式(1)は、dとwについて対称なので、n個の単語のうち一の単語wから、m個の文章のうち一の文章dが予想される確率P(d|w)を計算してもよい。1つの単語wから1つの文章dを予測するというのは、ある単語wが出現したときに、それが文章dの中に含まれる可能性を予測するということである。この場合、文章ベクトルd→と単語ベクトルw→との内積値は、文章ベクトルd→を単語ベクトルw→の方向に投影した場合のスカラ値、つまり、文章ベクトルd→が有している単語ベクトルw→の方向の成分値とも言える。これは、文章dが単語wに寄与している程度を表していると考えることができる。
なお、ここでは、単語ベクトルw→と文章ベクトルd→との内積値を指数とする指数関数値を用いる計算例を示したが、指数関数値を用いることを必須とするものではない。単語ベクトルw→と文章ベクトルd→との内積値を利用した計算式であればよく、例えば、内積値そのものの比率により確率を求めるようにしてもよい。
次に、ベクトル算出部12は、次の式(2)に示すように、上記式(1)により算出される確率P(w|d)を全ての集合Sについて合計した値Lを最大化するような文章ベクトルd→および単語ベクトルw→を算出する。すなわち、文章ベクトル算出部12Aおよび単語ベクトル算出部12Bは、上記式(1)により算出される確率P(w|d)を、m個の文章とn個の単語との全ての組み合わせについて算出し、それらを合計した値を目標変数Lとして、当該目標変数Lを最大化する文章ベクトルd→および単語ベクトルw→を算出する。
m個の文章とn個の単語との全ての組み合わせについて算出した確率P(w|d)の合計値Lを最大化するというのは、ある文章d(i=1,2,・・・,m)からある単語w(j=1,2,・・・,n)が予想される正解確率を最大化するということである。つまり、ベクトル算出部12は、この正解確率が最大化するような文章ベクトルd→および単語ベクトルw→を算出するものと言える。
ここで、本実施形態では、上述したように、ベクトル算出部12は、m個の文章dをそれぞれq次元にベクトル化することにより、q個の軸成分から成るm個の文章ベクトルd→を算出するとともに、n個の単語をそれぞれq次元にベクトル化することにより、q個の軸成分から成るn個の単語ベクトルw→を算出する。これは、q個の軸方向を可変として、上述の目標変数Lが最大化するような文章ベクトルd→および単語ベクトルw→を算出することに相当する。
指標値算出部13は、ベクトル算出部12により算出されたm個の文章ベクトルd→とn個の単語ベクトルw→との内積をそれぞれとることにより、m個の文章dおよびn個の単語w間の関係性を反映したm×n個の類似性指標値を算出する。本実施形態では、指標値算出部13は、次の式(3)に示すように、m個の文章ベクトルd→の各q個の軸成分(d11〜dmq)を各要素とする文章行列Dと、n個の単語ベクトルw→の各q個の軸成分(w11〜wnq)を各要素とする単語行列Wとの積をとることにより、m×n個の類似性指標値を各要素とする指標値行列DWを算出する。ここで、Wは単語行列の転置行列である。
このようにして算出された指標値行列DWの各要素は、どの単語がどの文章に対してどの程度寄与しているのかを表したものと言える。例えば、1行2列の要素dw12は、単語w2が文章d1に対してどの程度寄与しているのかを表した値である。これにより、指標値行列DWの各行は文章の類似性を評価するものとして用いることが可能であり、各列は単語の類似性を評価するものとして用いることが可能である。
分類モデル生成部14は、指標値算出部13により算出されたm×n個の類似性指標値を用いて、1つの文章d(i=1,2,・・・,m)についてn個の類似性指標値dw(j=1,2,・・・,n)から成る文章指標値群をもとに、m個の文章dを複数の事象に分類するための分類モデルを生成する。例えば、第1〜第3の3つの事象に分類する分類モデルを生成する場合、分類モデル生成部14は、第1の事象に該当することが既知である文章をもとに算出される文章指標値群については「第1の事象」に分類され、第2の事象に該当することが既知である文章をもとに算出される文章指標値群については「第2の事象」に分類され、第3の事象に該当することが既知である文章をもとに算出される文章指標値群については「第3の事象」に分類されるような分類モデルを生成する。そして、分類モデル生成部14は、生成した分類モデルを分類モデル記憶部30に記憶させる。
ここで、文章指標値群とは、例えば1つ目の文章dの場合、指標値行列DWの1行目に含まれるn個の類似性指標値dw11〜dw1nがこれに該当する。同様に、2つ目の文章d2の場合、指標値行列DWの2行目に含まれるn個の類似性指標値dw21〜dw2nがこれに該当する。以下、m個目の文章dmに関する文章指標値群(n個の類似性指標値dwm1〜dwmn)まで同様である。
分類モデル生成部14は、例えば、各文章dの文章指標値群についてそれぞれ特徴量を算出し、当該算出した特徴量の値に応じて、マルコフ連鎖モンテカルロ法による複数群分離の最適化を行うことにより、各文章dを複数の事象に分類するための分類モデルを生成する。ここで、分類モデル生成部14が生成する分類モデルは、文章指標値群を入力として、予測したい複数の事象のうち何れかを解として出力する学習モデルである。あるいは、予測したい複数の事象のそれぞれに該当する可能性を確率として出力する学習モデルとしてもよい。学習モデルの形態は任意である。
例えば、分類モデル生成部14が生成する分類モデルの形態は、回帰モデル(線形回帰、ロジスティック回帰、サポートベクターマシーンなどをベースとする学習モデル)、木モデル(決定木、回帰木、ランダムフォレスト、勾配ブースティング木などをベースとする学習モデル)、ニューラルネットワークモデル(パーセプトロン、畳み込みニューラルネットワーク、再起型ニューラルネットワーク、残差ネットワーク、RBFネットワーク、確率的ニューラルネットワーク、スパイキングニューラルネットワーク、複素ニューラルネットワークなどをベースとする学習モデル)、ベイズモデル(ベイズ推論などをベースとする学習モデル)、クラスタリングモデル(k近傍法、階層型クラスタリング、非階層型クラスタリング、トピックモデルなどをベースとする学習モデル)などのうち何れかとすることが可能である。なお、ここに挙げた分類モデルは一例に過ぎず、これに限定されるものではない。
予測用データ入力部20は、予測対象とする1つ以上の文章に関する文章データを予測用データとして入力する。予測用データ入力部20が入力する文章データは、複数の事象のうちどれに該当するかが未知の文章に関する文章データである。予測用データ入力部20が入力する文章データは、学習用データ入力部10が入力する文章データと同様、予測したい複数の事象に関連する文章が記述されたデータであってもよいし、予測したい複数の事象とはいっけん無関係と思われる文章が記述されたデータであってもよい。
予測用データ入力部20が入力する文章データの数(文章の数)m’は、学習用データ入力部10が入力する文章の数(m個)と必ずしも同数でなくてもよい。予測用データ入力部20が入力する文章データは、1つであってもよいし、複数であってもよい。ただし、予測用データ入力部20が入力する文章についても類似性指標値を算出する。類似性指標値は、どの単語がどの文章に対してどの程度寄与しているのか、どの文章がどの単語に対してどの程度寄与しているのかを表したものであるため、予測用データ入力部20が入力する文章についても複数とするのが好ましい。
事象予測部21は、予測用データ入力部20により入力された予測用データに対して、類似性指標値算出部100の単語抽出部11、ベクトル算出部12および指標値算出部13の処理を実行することによって得られる類似性指標値を、分類モデル生成部14により生成された分類モデル(分類モデル記憶部30に記憶された分類モデル)に適用することにより、予測対象データから複数の事象の何れかを予測する。
例えば、予測用データ入力部20によりm’個の文章データが予測用データとして入力された場合、事象予測部21がそのm’個の文章データについて類似性指標値算出部100の処理を実行することにより、m’個の文章指標値群を得る。事象予測部21は、類似性指標値算出部100により算出されたm’個の文章指標値群を1つずつ分類モデルに入力データとして与えることにより、m’個の文章のそれぞれについて複数の事象のどれに該当するかを予測する。
ここで、単語抽出部11は、m個の学習用データから抽出したn個の単語と同じ単語をm’個の予測用データから抽出するのが好ましい。予測用データから抽出されるn個の単語から成る文章指標値群が、学習用データから抽出されたn個の単語から成る文章指標値群と同じ単語を要素とするものとなるので、分類モデル記憶部30に記憶された分類モデルに対する適合度が高くなるからである。ただし、学習時と同じn個の単語を予測時にも抽出することを必須とするものではない。学習時とは異なる単語の組み合わせによって予測用の文章指標値群が生成される場合、分類モデルに対する適合度が低くなるものの、適合度が低いということ自体も評価の一要素として、事象に該当する可能性を予測すること自体は可能だからである。
図2は、上記のように構成した本実施形態による事象予測装置の動作例を示すフローチャートである。図2(a)は、分類モデルを生成する学習時の動作例を示し、図2(b)は、生成された分類モデルを用いて事象の予測を行う予測時の動作例を示している。
図2(a)に示す学習時において、まず、学習用データ入力部10は、複数の事象のうちどれに該当するかが既知であるm個の文章に関する文章データを学習用データとして入力する(ステップS1)。単語抽出部11は、学習用データ入力部10により入力されたm個の文章を解析し、当該m個の文章からn個の単語を抽出する(ステップS2)。
次いで、ベクトル算出部12は、学習用データ入力部10により入力されたm個の文章および単語抽出部11により抽出されたn個の単語から、m個の文章ベクトルd→およびn個の単語ベクトルw→を算出する(ステップS3)。そして、指標値算出部13は、m個の文章ベクトルd→とn個の単語ベクトルw→との内積をそれぞれとることにより、m個の文章dおよびn個の単語w間の関係性を反映したm×n個の類似性指標値(m×n個の類似性指標値を各要素とする指標値行列DW)を算出する(ステップS4)。
さらに、分類モデル生成部14は、指標値算出部13により算出されたm×n個の類似性指標値を用いて、1つの文章dについてn個の類似性指標値dwから成る文章指標値群をもとに、m個の文章dを複数の事象に分類するための分類モデルを生成し、生成した分類モデルを分類モデル記憶部30に記憶させる(ステップS5)。以上により、学習時の動作が終了する。
図2(b)に示す予測時において、まず、予測用データ入力部20は、複数の事象のうちどれに該当するかが未知の1つ以上の文章に関する文章データを予測用データとして入力する(ステップS11)。事象予測部21は、予測用データ入力部20により入力された予測用データを類似性指標値算出部100に供給し、類似性指標値の算出を指示する。
この指示に応じて、単語抽出部11は、予測用データ入力部20により入力されたm’個の文章を解析し、当該m’個の文章からn個の単語(学習用データから抽出されたものと同じ単語)を抽出する(ステップS12)。なお、m’個の文章の中にn個の単語が全て含まれているとは限らない。m’個の文章の中に存在しない単語についてはNull値となる。
次いで、ベクトル算出部12は、予測用データ入力部20により入力されたm’個の文章および単語抽出部11により抽出されたn個の単語から、m’個の文章ベクトルd→およびn個の単語ベクトルw→を算出する(ステップS13)。
そして、指標値算出部13は、m’個の文章ベクトルd→とn個の単語ベクトルw→との内積をそれぞれとることにより、m’個の文章dおよびn個の単語w間の関係性を反映したm’×n個の類似性指標値(m’×n個の類似性指標値を各要素とする指標値行列DW)を算出する(ステップS14)。指標値算出部13は、算出したm’×n個の類似性指標値を事象予測部21に供給する。
事象予測部21は、類似性指標値算出部100から供給されたm’×n個の類似性指標値をもとに、m’個の文章指標値群をそれぞれ分類モデル記憶部30に記憶された分類モデルに適用することにより、m’個の文章のそれぞれについて複数の事象のどれに該当するかを予測する(ステップS15)。これにより、予測時の動作が終了する。
以上詳しく説明したように、本実施形態では、文章から算出した文章ベクトルと、文章内に含まれる単語から算出した単語ベクトルとの内積を計算することによって、文章および単語間の関係性を反映した類似性指標値を算出し、この類似性指標値を用いて分類モデルを生成しているので、どの単語がどの文章に対してどの程度寄与しているのか、あるいは、どの文章がどの単語に対してどの程度寄与しているのかを表した類似性指標値を用いて分類モデルが生成される。このため、m個の文章とn個の単語との寄与度を加味した上で、文章を複数の事象のうち何れかに分類することができるようになる。よって、本実施形態によれば、文章を対象として機械学習によって事象の予測を行う場合において、学習によって生成する分類モデルの精度を上げて、文章から事象を予測する精度を向上させることができる。
なお、上記実施形態では、複数の事象のうちどれに該当するかが既知である文章に関する文章データを学習用データとして用いる教師あり学習を適用した例について説明したが、これに強化学習を組み合わせるようにしてもよい。図3は、強化学習の仕組みを追加した他の実施形態に係る事象予測装置の機能構成例を示すブロック図である。
図3に示すように、他の実施形態に係る事象予測装置は、図1に示した構成に加えて報酬決定部22を更に備えている。また、他の実施形態に係る事象予測装置は、図1に示した分類モデル生成部14に代えて分類モデル生成部14’を備えている。
報酬決定部22は、事象予測部21により予測された事象に対する実際の事象に応じて、分類モデル生成部14’に与える報酬を決定する。例えば、報酬決定部22は、事象予測部21により予測された事象が実際の事象と一致している場合にはプラスの報酬を与えるように決定し、一致していない場合は無報酬またはマイナスの報酬を与えるように決定する。予測された事象が実際の事象と一致しているか否かの判定は、種々の方法により実施することが可能である。
例えば、複数の事象としてユーザの趣味趣向を予測する場合には、予測した趣味趣向に合わせた情報をユーザに提示し、その情報に対してユーザがアクションを起こした場合に、予測された事象が実際の事象と一致していると判定することが可能である。具体的な例として、予測した趣味趣向に合わせた商品やサービスの広告情報を、ユーザが閲覧しているウェブページに表示し、その広告情報をクリックして詳細情報を閲覧したり、その広告情報に掲載されている商品やサービスを購入したりするといったアクションをユーザが起こした場合に、予測された事象が実際の事象と一致していると判定する。
また、あるシステムについて特定の障害が発生する可能性を予測する場合には、システムの監視履歴を記録した履歴データに基づいて、実際に特定の障害が発生したか否かを監視し、予測された障害が実際に発生したことが履歴データから検出された場合に、予測された事象が実際の事象と一致していると判定することが可能である。同様に、複数のユーザについて特定の症状が発生する可能性などを予測する場合には、ユーザの診察履歴などの履歴データに基づいて、実際に特定の症状が発症したか否かを監視し、予測された症状が実際に発症したことが履歴データから検出された場合に、予測された事象が実際の事象と一致していると判定することが可能である。
分類モデル生成部14’は、図1に示した分類モデル生成部14と同様に、学習用データ入力部10により入力された学習用データをもとに、分類モデルを生成し、分類モデル記憶部30に記憶させる。これに加え、分類モデル生成部14’は、報酬決定部22により決定された報酬に応じて、分類モデル記憶部30に記憶された分類モデルを改変する。このように、教師あり学習の仕組みに対して強化学習の仕組みを加えて分類モデルを生成することにより、分類モデルの精度を更に向上させることができる。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
10 学習用データ入力部
11 単語抽出部
12 ベクトル算出部
12A 文章ベクトル算出部
12B 単語ベクトル算出部
13 指標値算出部
14,14’ 分類モデル生成部
20 予測用データ入力部
21 事象予測部
22 報酬決定部
30 分類モデル記憶部
100 類似性指標値算出部

Claims (10)

  1. m個(mは2以上の任意の整数)の文章を解析し、当該m個の文章からn個(nは2以上の任意の整数)の単語を抽出する単語抽出部と、
    上記m個の文章をそれぞれ所定のルールに従ってq次元(qは2以上の任意の整数)にベクトル化することにより、q個の軸成分から成るm個の文章ベクトルを算出する文章ベクトル算出部と、
    上記n個の単語をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るn個の単語ベクトルを算出する単語ベクトル算出部と、
    上記m個の文章ベクトルと上記n個の単語ベクトルとの内積をそれぞれとることにより、上記m個の文章および上記n個の単語間の関係性を反映したm×n個の類似性指標値を算出する指標値算出部と、
    上記指標値算出部により算出された上記m×n個の類似性指標値を用いて、1つの文章についてn個の類似性指標値から成る文章指標値群をもとに、上記m個の文章を複数の事象に分類するための分類モデルを生成する分類モデル生成部と、
    予測対象とする1つ以上の文章を予測用データとして入力する予測用データ入力部と、
    上記予測用データ入力部により入力された上記予測用データに対して上記単語抽出部、上記文章ベクトル算出部、上記単語ベクトル算出部および上記指標値算出部の処理を実行することによって得られる類似性指標値を、上記分類モデル生成部により生成された上記分類モデルに適用することにより、上記予測対象データから上記複数の事象の何れかを予測する事象予測部とを備えたことを特徴とする事象予測装置。
  2. 上記文章ベクトル算出部および上記単語ベクトル算出部は、上記n個の単語のうち一の単語から上記m個の文章のうち一の文章が予想される確率、または、上記m個の文章のうち一の文章から上記n個の単語のうち一の単語が予想される確率を、上記m個の文章と上記n個の単語との全ての組み合わせについて算出して合計した値を目標変数とし、当該目標変数を最大化する文章ベクトルおよび単語ベクトルを算出することを特徴とする請求項1に記載の事象予測装置。
  3. 上記指標値算出部は、上記m個の文章ベクトルの各q個の軸成分を各要素とする文章行列と、上記n個の単語ベクトルの各q個の軸成分を各要素とする単語行列との積をとることにより、m×n個の上記類似性指標値を各要素とする指標値行列を算出することを特徴とする請求項1または2に記載の事象予測装置。
  4. 上記複数の事象のうちどれに該当するかが既知である上記m個の文章を学習用データとして入力する学習用データ入力部を更に備え、
    上記単語抽出部、上記文章ベクトル算出部、上記単語ベクトル算出部、上記指標値算出部および上記分類モデル生成部の処理を、上記学習用データ入力部により上記学習用データとして入力された上記m個の文章を対象として実行することを特徴とする請求項1〜3の何れか1項に記載の事象予測装置。
  5. 上記事象予測部により予測された事象に対する実際の事象に応じて、上記分類モデル生成部に与える報酬を決定する報酬決定部を更に備え、
    上記分類モデル生成部は、上記報酬決定部により決定された報酬に応じて、上記分類モデルを改変することを特徴とする請求項1〜4の何れか1項に記載の事象予測装置。
  6. m個(mは2以上の任意の整数)の文章を解析し、当該m個の文章からn個(nは2以上の任意の整数)の単語を抽出する単語抽出部と、
    上記m個の文章をそれぞれ所定のルールに従ってq次元(qは2以上の任意の整数)にベクトル化することにより、q個の軸成分から成るm個の文章ベクトルを算出する文章ベクトル算出部と、
    上記n個の単語をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るn個の単語ベクトルを算出する単語ベクトル算出部と、
    上記m個の文章ベクトルと上記n個の単語ベクトルとの内積をそれぞれとることにより、上記m個の文章および上記n個の単語間の関係性を反映したm×n個の類似性指標値を算出する指標値算出部と、
    上記指標値算出部により算出された上記m×n個の類似性指標値を用いて、1つの文章についてn個の類似性指標値から成る文章指標値群をもとに、上記m個の文章を複数の事象に分類するための分類モデルを、上記文章から事象を予測するための予測モデルとして生成する分類モデル生成部とを備えたことを特徴とする予測モデル生成装置。
  7. 上記文章ベクトル算出部および上記単語ベクトル算出部は、上記n個の単語のうち一の単語から上記m個の文章のうち一の文章が予想される確率、または、上記m個の文章のうち一の文章から上記n個の単語のうち一の単語が予想される確率を、上記m個の文章と上記n個の単語との全ての組み合わせについて算出して合計した値を目標変数とし、当該目標変数を最大化する文章ベクトルおよび単語ベクトルを算出することを特徴とする請求項6に記載の予測モデル生成装置。
  8. 上記指標値算出部は、上記m個の文章ベクトルの各q個の軸成分を各要素とする文章行列と、上記n個の単語ベクトルの各q個の軸成分を各要素とする単語行列との積をとることにより、m×n個の上記類似性指標値を各要素とする指標値行列を算出することを特徴とする請求項6または7に記載の予測モデル生成装置。
  9. m個(mは2以上の任意の整数)の文章を解析し、当該m個の文章からn個(nは2以上の任意の整数)の単語を抽出する単語抽出部手段、
    上記m個の文章をそれぞれ所定のルールに従ってq次元(qは2以上の任意の整数)にベクトル化するとともに、上記n個の単語をそれぞれ所定のルールに従ってq次元にベクトル化することにより、q個の軸成分から成るm個の文章ベクトルおよびq個の軸成分から成るn個の単語ベクトルを算出するベクトル算出手段、および
    上記m個の文章ベクトルと上記n個の単語ベクトルとの内積をそれぞれとることにより、上記m個の文章および上記n個の単語間の関係性を反映したm×n個の類似性指標値を算出する指標値算出手段、および
    上記指標値算出手段により算出された上記m×n個の類似性指標値を用いて、1つの文章についてn個の類似性指標値から成る文章指標値群をもとに、上記m個の文章を複数の事象に分類するための分類モデルを、上記文章から事象を予測するための予測モデルとして生成する分類モデル生成手段、
    としてコンピュータを機能させるための事象予測用プログラム。
  10. 予測対象とする1つ以上の文章または1つ以上の単語を予測用データとして入力する予測用データ入力手段、および
    上記予測用データ入力手段により入力された上記予測用データに対して上記単語抽出手段、上記文章ベクトル算出手段、上記単語ベクトル算出手段および上記指標値算出手段の処理を実行することによって得られる類似性指標値を、上記分類モデル生成手段により生成された上記分類モデルに適用することにより、上記予測対象データから上記複数の事象の何れかを予測する事象予測手段
    としてコンピュータを更に機能させるための請求項9に記載の事象予測用プログラム。
JP2018088829A 2018-05-02 2018-05-02 事象予測装置、予測モデル生成装置および事象予測用プログラム Active JP6915809B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018088829A JP6915809B2 (ja) 2018-05-02 2018-05-02 事象予測装置、予測モデル生成装置および事象予測用プログラム
US17/050,523 US20210042586A1 (en) 2018-05-02 2019-04-23 Phenomenon prediction device, prediction model generation device, and phenomenon prediction program
EP19797043.7A EP3779728A4 (en) 2018-05-02 2019-04-23 DEVICE FOR PREDICTING PHENOMENON, DEVICE FOR GENERATING PREDICTIVE MODELS AND PROGRAM FOR PREDICTING PHENOMENON
PCT/JP2019/017193 WO2019212006A1 (ja) 2018-05-02 2019-04-23 事象予測装置、予測モデル生成装置および事象予測用プログラム
CN201980029244.3A CN112106040A (zh) 2018-05-02 2019-04-23 事件预测装置、预测模型生成装置以及事件预测用程序
KR1020207030777A KR102315984B1 (ko) 2018-05-02 2019-04-23 사상 예측 장치, 예측 모델 생성 장치 및 사상 예측용 프로그램
JP2021110137A JP6962532B1 (ja) 2018-05-02 2021-07-01 事象予測装置および事象予測用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018088829A JP6915809B2 (ja) 2018-05-02 2018-05-02 事象予測装置、予測モデル生成装置および事象予測用プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021110137A Division JP6962532B1 (ja) 2018-05-02 2021-07-01 事象予測装置および事象予測用プログラム

Publications (2)

Publication Number Publication Date
JP2019194808A true JP2019194808A (ja) 2019-11-07
JP6915809B2 JP6915809B2 (ja) 2021-08-04

Family

ID=68386981

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018088829A Active JP6915809B2 (ja) 2018-05-02 2018-05-02 事象予測装置、予測モデル生成装置および事象予測用プログラム
JP2021110137A Active JP6962532B1 (ja) 2018-05-02 2021-07-01 事象予測装置および事象予測用プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021110137A Active JP6962532B1 (ja) 2018-05-02 2021-07-01 事象予測装置および事象予測用プログラム

Country Status (6)

Country Link
US (1) US20210042586A1 (ja)
EP (1) EP3779728A4 (ja)
JP (2) JP6915809B2 (ja)
KR (1) KR102315984B1 (ja)
CN (1) CN112106040A (ja)
WO (1) WO2019212006A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115048486A (zh) * 2022-05-24 2022-09-13 支付宝(杭州)信息技术有限公司 事件抽取方法、装置、计算机程序产品、存储介质及设备
CN115048486B (zh) * 2022-05-24 2024-05-31 支付宝(杭州)信息技术有限公司 事件抽取方法、装置、计算机程序产品、存储介质及设备

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3756144A4 (en) * 2018-02-23 2022-06-22 INTEL Corporation METHOD, DEVICE AND SYSTEM FOR GENERATION OF BAYESIAN INFERENCE WITH A SPIKING NEURAL NETWORK
US11354501B2 (en) * 2019-08-02 2022-06-07 Spectacles LLC Definition retrieval and display
US11443112B2 (en) * 2019-09-06 2022-09-13 International Business Machines Corporation Outcome of a natural language interaction
US11861463B2 (en) * 2019-09-06 2024-01-02 International Business Machines Corporation Identifying related messages in a natural language interaction
US11574128B2 (en) 2020-06-09 2023-02-07 Optum Services (Ireland) Limited Method, apparatus and computer program product for generating multi-paradigm feature representations
KR102370729B1 (ko) 2021-06-03 2022-03-07 최연 문장 작성 시스템
US11698934B2 (en) 2021-09-03 2023-07-11 Optum, Inc. Graph-embedding-based paragraph vector machine learning models

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020494A (ja) 1998-07-07 2000-01-21 Nippon Telegr & Teleph Corp <Ntt> マルチエージェントモデルを用いて経験強化型強化学習法と環境同定型強化学習法を統合する分散強化学習法
JP2002149675A (ja) * 2000-11-15 2002-05-24 Toshiba Corp テキストデータ分析装置とその方法、およびそのためのプログラムとそれを記録した記録媒体
JP4314853B2 (ja) * 2003-03-20 2009-08-19 富士通株式会社 文書分類装置および文書分類プログラム
JP2004326465A (ja) 2003-04-24 2004-11-18 Matsushita Electric Ind Co Ltd 文書分類用の学習装置、及びこれを用いた文書分類方法並びに文書分類装置
JP2005208782A (ja) * 2004-01-21 2005-08-04 Fuji Xerox Co Ltd 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム
WO2017199445A1 (ja) * 2016-05-20 2017-11-23 株式会社Ubic データ分析システム、その制御方法、プログラム、及び、記録媒体
US10467464B2 (en) * 2016-06-07 2019-11-05 The Neat Company, Inc. Document field detection and parsing
US11521056B2 (en) * 2016-06-17 2022-12-06 Graham Fyffe System and methods for intrinsic reward reinforcement learning
JP2018032213A (ja) * 2016-08-24 2018-03-01 シャープ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN107145560B (zh) * 2017-05-02 2021-01-29 北京邮电大学 一种文本分类方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115048486A (zh) * 2022-05-24 2022-09-13 支付宝(杭州)信息技术有限公司 事件抽取方法、装置、计算机程序产品、存储介质及设备
CN115048486B (zh) * 2022-05-24 2024-05-31 支付宝(杭州)信息技术有限公司 事件抽取方法、装置、计算机程序产品、存储介质及设备

Also Published As

Publication number Publication date
US20210042586A1 (en) 2021-02-11
KR102315984B1 (ko) 2021-10-20
WO2019212006A1 (ja) 2019-11-07
EP3779728A4 (en) 2021-03-31
JP6962532B1 (ja) 2021-11-05
KR20200128584A (ko) 2020-11-13
EP3779728A1 (en) 2021-02-17
JP6915809B2 (ja) 2021-08-04
JP2021182398A (ja) 2021-11-25
CN112106040A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
WO2019212006A1 (ja) 事象予測装置、予測モデル生成装置および事象予測用プログラム
JP6972265B2 (ja) ポインタセンチネル混合アーキテクチャ
Lu et al. Learning under concept drift: A review
Lin et al. Deep learning for missing value imputation of continuous data and the effect of data discretization
Daud et al. Using machine learning techniques for rising star prediction in co-author network
Gálvez et al. Assessing the usefulness of online message board mining in automatic stock prediction systems
JP6652986B2 (ja) 危険行動予測装置、予測モデル生成装置および危険行動予測用プログラム
Fahfouh et al. PV-DAE: A hybrid model for deceptive opinion spam based on neural network architectures
Burdisso et al. τ-SS3: A text classifier with dynamic n-grams for early risk detection over text streams
Jabbari et al. Discovery of causal models that contain latent variables through Bayesian scoring of independence constraints
US11295237B2 (en) Smart copy optimization in customer acquisition and customer management platforms
US11954202B2 (en) Deep learning based detection of malicious shell scripts
Brophy et al. Adapting and evaluating influence-estimation methods for gradient-boosted decision trees
Khan et al. Comparative analysis on Facebook post interaction using DNN, ELM and LSTM
Nazeer et al. Use of novel ensemble machine learning approach for social media sentiment analysis
Eyraud et al. TAYSIR Competition: Transformer+\textscrnn: Algorithms to Yield Simple and Interpretable Representations
Tallón-Ballesteros et al. Merging subsets of attributes to improve a hybrid consistency-based filter: a case of study in product unit neural networks
Singh et al. Folksonomy based trend analysis on community question answering sites: A perspective on software technologies
Khemraj et al. Prediction of world happiness scenario effective in the period of COVID-19 pandemic, by artificial neuron network (ANN), support vector machine (SVM), and regression tree (RT).
US20240160847A1 (en) Systems and methods for semantic separation of multiple intentions in text data using reinforcement learning
Davis et al. Abusive Language Detection and Characterization of Twitter Behavior
Alam et al. Machine learning and lexical semantic-based sentiment analysis for determining the impacts of the COVID-19 Vaccine
Li et al. The performance of multiple language models in identifying offensive language on social media
Marimuthu et al. Behavioural analysis of COVID-19 vaccine hesitancy survey: A machine learning approach
Sboev et al. The complex of neural networks and probabilistic methods for mathematical modeling of the syntactic structure of a sentence of natural language

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210304

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210304

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210706

R150 Certificate of patent or registration of utility model

Ref document number: 6915809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250