JP5382651B2 - 単語対取得装置、単語対取得方法、およびプログラム - Google Patents

単語対取得装置、単語対取得方法、およびプログラム Download PDF

Info

Publication number
JP5382651B2
JP5382651B2 JP2009207944A JP2009207944A JP5382651B2 JP 5382651 B2 JP5382651 B2 JP 5382651B2 JP 2009207944 A JP2009207944 A JP 2009207944A JP 2009207944 A JP2009207944 A JP 2009207944A JP 5382651 B2 JP5382651 B2 JP 5382651B2
Authority
JP
Japan
Prior art keywords
word
class
pair
pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009207944A
Other languages
English (en)
Other versions
JP2011059917A (ja
Inventor
デ サーガ ステイン
健太郎 鳥澤
淳一 風間
航 黒田
真樹 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009207944A priority Critical patent/JP5382651B2/ja
Priority to CN201080040033.9A priority patent/CN102576358B/zh
Priority to US13/394,893 priority patent/US9037586B2/en
Priority to PCT/JP2010/065308 priority patent/WO2011030752A1/ja
Priority to EP10815349.5A priority patent/EP2477125A4/en
Priority to KR1020127006123A priority patent/KR101715432B1/ko
Publication of JP2011059917A publication Critical patent/JP2011059917A/ja
Application granted granted Critical
Publication of JP5382651B2 publication Critical patent/JP5382651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Description

本発明は、所定の関係を有する2つの単語対を取得する単語対取得装置等に関するものである。
従来、取り出したい単語対を少量与えて、当該単語対からパターンを取得する単語対取得装置があった。そして、従来の単語対取得装置は、その取得したパターンと共起する単語対を取得するものであった(例えば、非特許文献1参照)。
P. Pantel and M. Pennacchiotti. Espresso: Leveraging generic patterns for automatically harvesting semantic relations.In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics (COLINGACL-06), pages 113-120, 2006.
しかしながら、従来の単語対取得装置においては、与えられた任意の関係にある単語対を適切に取得できなかった。


本第一の発明の単語対取得装置は、1以上の文章群を格納し得る文章群格納部と、1以上の単語と1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し得る単語クラス情報格納部と、2つのクラスの良さを示す指標であるクラス対良好度を格納し得るクラス対良好度格納部と、2つの単語である単語対を1以上格納し得る単語対格納部と、単語対格納部に格納されている1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度をクラス対良好度格納部から取得するクラス対良好度取得部と、クラス対良好度取得部が取得したクラス対良好度を用いて、単語対格納部の各単語対のスコアを決定するスコア決定部と、スコア決定部が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択部と、単語対選択部が取得した1以上の単語対を出力する単語対出力部とを具備する単語対取得装置である。
かかる構成により、クラス対良好度を用いて、所定の関係にある単語対を適切に取得できる。
また、本第二の発明の単語対取得装置は、第一の発明に対して、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納し得るシードパターン格納部と、2つの各クラスに属する単語対が、文章群格納部の1以上の文章群の中で、1以上のシードパターンと共起する回数または割合が多いほどクラス対良好度が大きくなるようにクラス対良好度を算出するクラス対良好度算出部とをさらに具備し、クラス対良好度算出部が算出した2つのクラスのクラス対良好度は、クラス対良好度格納部に格納されているクラス対良好度である単語対取得装置である。
かかる構成により、クラス対良好度が適切に算出でき、そのクラス対良好度を用いて、所定の関係にある単語対を適切に取得できる。
また、本第三の発明の単語対取得装置は、第一または第二の発明に対して、シードパターンではないパターンであり、所定の関係を有する2つの単語対を取得するために利用するパターンを1以上格納し得るパターン格納部と、パターン格納部に格納されている1以上の各パターンとシードパターンとの類似度を、パターンごとに格納し得るパターン類似度格納部と、シードパターン格納部に格納されている1以上のシードパターン、およびパターン格納部に格納されている1以上のパターンのいずれかを取得し、文章群格納部に格納されている1以上の文章群から、シードパターンまたはパターンと共起する1以上の単語対を取得する単語対取得部とをさらに具備し、スコア決定部は、パターン類似度格納部に格納されている1以上の各パターンとシードパターンとの類似度をも用いて、単語対取得部が取得した各単語対のスコアを決定する単語対取得装置である。
かかる構成により、シードパターンとパターンとの類似度を用いて、所定の関係にある単語対をさらに適切に取得できる。
また、本第四の発明の単語対取得装置は、第三の発明に対して、1以上のシードパターンと共起する単語対に対応するクラス対と、パターン格納部に格納されている1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、大きくなるように類似度を算出するパターン類似度算出部をさらに具備し、パターン類似度算出部が算出した類似度は、パターン類似度格納部に格納されている類似度である単語対取得装置である。
かかる構成により、シードパターンとパターンとの類似度を適切に算出でき、その類似度を用いて、所定の関係にある単語対をさらに適切に取得できる。
また、本第五の発明の単語対取得装置は、第一から第四いずれかの発明に対して、1以上の各単語対と1以上の各パターンとの親和性に関する情報である親和性情報を格納し得る親和性情報格納部をさらに具備し、スコア決定部は、親和性情報格納部の親和性情報をも用いて、単語対取得部が取得した各単語対のスコアを決定する単語対取得装置である。
かかる構成により、パターンと単語対の親和性を用いて、所定の関係にある単語対をさらに適切に取得できる。
また、本第六の発明の単語対取得装置は、第五の発明に対して、単語対取得部が取得した1以上の単語対と、1以上の各パターンとが共起する回数または割合が多いほど、大きくなるように親和性情報を算出する親和性情報算出部をさらに具備し、親和性情報格納部の親和性情報は、親和性情報算出部が算出した親和性情報である単語対取得装置である。
かかる構成により、パターンと単語対の親和性を適切に算出でき、その親和性を用いて、所定の関係にある単語対をさらに適切に取得できる。
また、本第七の発明の単語対取得装置は、第六の発明に対して、スコア決定部は、クラス対良好度、シードパターンとパターンとの類似度、および親和性情報との積が最も大きいシードパターンまたはパターンにおけるスコアを、各単語対のスコアとして決定する単語対取得装置である。
かかる構成により、単語対のスコアを精度高く算出でき、その結果、所定の関係にある単語対を極めて適切に取得できる。
また、本第八の発明の単語対取得装置は、第三から第七いずれかの発明に対して、文章群格納部に格納されている1以上の文章群の各文に対して、形態素解析および係り受け解析し、第一の名詞または名詞句を起点として、第二の名詞または名詞句を終点として、起点から終点までに至る形態素の繋がりをパターンとして取得し、または、起点からの形態素の繋がりと終点からの形態素の繋がりが結ばれる形態素までをパターンとして取得するパターン取得部をさらに具備し、パターン格納部のパターンは、パターン取得部が取得したパターンである単語対取得装置である。
かかる構成により、文章群から適切にパターンを取得でき、そのパターンを用いて、所定の関係にある単語対を適切に取得できる。
また、本第九の発明の単語対取得装置は、第一から第八いずれかの発明に対して、最終的に出力しない単語対に対応するクラス対を識別する2つのクラス識別子である除外クラス対を1以上格納し得る除外クラス対格納部と、1以上の除外クラス対に対応する単語対を出力する単語対から除外する単語対除外部とをさらに具備する単語対取得装置である。
かかる構成により、不適切な単語対を出力する可能性を低くでき、その結果、所定の関係にある単語対をより適切に取得できる。
また、本第十の発明の単語対取得装置は、第九の発明に対して、1以上の文章群における、各クラスに属する単語の平均出現頻度と、クラス識別子とを対に有するクラス出現頻度情報を、クラス毎に格納し得るクラス出現頻度情報格納部と、平均出現頻度が予め決められた閾値以上の差を有する2つのクラスのクラス識別子を除外クラス対として、除外クラス対格納部に蓄積する除外クラス対蓄積部とをさらに具備する単語対取得装置である。
かかる構成により、不適切な単語対を出力する可能性を非常に低くでき、その結果、所定の関係にある単語対をより適切に取得できる。
また、本第十一の発明の単語対取得装置は、第一から第十のいずれかの発明に対して、文章群格納部の1以上の文章群を用いて、同一の動詞、または同一の動詞と助詞と共起する回数または割合が多い単語を同一のクラスに属するように、1以上の単語クラス情報を取得する単語クラス情報取得部をさらに具備し、単語クラス情報格納部の単語クラス情報は、単語クラス情報取得部が取得した単語クラス情報である単語対取得装置である。
かかる構成により、単語クラス情報をより適切に取得できる。
本発明による単語対取得装置によれば、所定の関係にある単語対を適切に取得できる。
実施の形態1における単語対取得装置1を含む単語取得システムの概念図 同単語対取得装置の、単語対を取得する処理を行う構成要素に着目したブロック図 同単語対取得装置の、単語対を取得する処理を行う前の環境整備を行う構成要素に着目したブロック図 同文字列の係り受け解析の結果を示す図 同文字列の係り受け解析の結果を示す図 同単語対取得装置の動作について説明するフローチャート 同単語クラス情報管理表を示す図 同クラス出現頻度情報管理表を示す図 同単語対等の出力例を示す図 同実験1における各方法の精度を示すグラフ 同単語対等の出力例を示す図 同実験2における各方法の精度を示すグラフ 同単語対等の出力例を示す図 同実験3における各方法の精度を示すグラフ 同確率分布管理表を示す図 同コンピュータシステムの概観図 同コンピュータシステムのブロック図
以下、単語対取得装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
(実施の形態1)
本実施の形態において、所定の関係を有する2つの単語対を取得する単語対取得装置について説明する。本単語対取得装置は、単語対が属するクラス対の良さ(後述するクラス対良好度)を指標として、単語対を選択する。また、本単語対取得装置は、単語対を取り出す際に利用するパターンの良さ(後述する類似度)を指標として、単語対を選択する。さらに、本単語対取得装置は、パターンと単語対の親和性(後述する親和性情報)を用いて、単語対を選択する。
図1は、本実施の形態における単語対取得装置1を含む単語取得システムの概念図である。単語取得システムは、単語対取得装置1と、1以上の文章群格納装置2とを含む。文章群格納装置2は、文章群を格納しているサーバ装置である。文章群格納装置2は、例えば、ウェブ上のサーバ装置であり、1以上のウェブページを格納している。かかる場合、文章群は、ウェブページである。また、単語対取得装置1は、1以上の文章群格納装置2から、文章群を取得し、当該文章群を少なくとも一時的に格納している。
図2および図3は、本実施の形態における単語対取得装置1のブロック図である。図2は、単語対取得装置1の構成要素のうちの、主として、単語対を取得する処理を行う構成要素に着目したブロック図である。図3は、単語対取得装置1の構成要素のうちの、主として、単語対を取得する処理を行う前の環境整備を行う構成要素に着目したブロック図である。ただし、図2、図3は、単語対取得装置1を分離した構成の一例に過ぎない。
単語対取得装置1は、文章群格納部101、単語対格納部102、単語クラス情報格納部103、シードパターン格納部104、パターン格納部105、クラス対良好度格納部106、パターン類似度格納部107、親和性情報格納部108、除外クラス対格納部109、クラス出現頻度情報格納部110、単語対取得部111、単語対蓄積部112、単語クラス情報取得部113、単語クラス情報蓄積部114、パターン取得部115、パターン蓄積部116、クラス対良好度算出部117、クラス対良好度蓄積部118、パターン類似度算出部119、パターン類似度蓄積部120、親和性情報算出部121、親和性情報蓄積部122、クラス対良好度取得部123、パターン類似度取得部124、親和性情報取得部125、スコア決定部126、単語対選択部127、単語対出力部128、単語対除外部129、除外クラス対蓄積部130、クラス出現頻度情報算出部131を備える。
文章群格納部101は、1以上の文章群を格納し得る。文章群とは、例えば、ウェブページである。ただし、文章群は何でも良い。文章群は、テキストデータ、所定のデータベースなどでも良く、その構造も問わない。文章群格納部101の文章群は、通信手段や放送受信手段などで取得した文章群であることは好適である。文章群格納部101は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。文章群格納部101に文章群が記憶される過程は問わない。例えば、記録媒体を介して文章群が文章群格納部101で記憶されるようになってもよく、通信回線等を介して送信された文章群が文章群格納部101で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された文章群が文章群格納部101で記憶されるようになってもよい。
単語対格納部102は、1以上の単語対を格納し得る。単語対とは、所定の関係を有する2つの単語である。単語とは、ここでは、通常、名詞や名詞句である。ただし、形容詞などの他の品詞を単語であると考えても良い。また、所定の関係とは、例えば、原因と結果の関係、原材料と製品の関係、現象とその現象の防止手段の関係などである。所定の関係が原因と結果の関係である場合、例えば、単語対は「ウィルス」と「風邪」などである。単語対格納部102は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。単語対格納部102に単語対が記憶される過程は問わない。ただし、通常、単語対取得部111が取得した単語対を、単語対蓄積部112が単語対格納部102に蓄積する。
単語クラス情報格納部103は、2以上の単語クラス情報を格納し得る。単語クラス情報は、1以上の単語と1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する情報である。クラスとは、同一の動詞と良く共起する単語(通常、名詞)を同一のクラスに属する単語とする。また、同一の動詞および助詞と良く共起する単語(通常、名詞)を同一のクラスに属する単語としても良い。ここで、良く共起する、とは、予め決められた回数(頻度)または割合以上、同一の動詞、または同一の動詞および助詞と共起する場合である。単語クラス情報は、クラス識別子と1以上の単語を識別する1以上の単語識別子とを有する情報でも良い。単語クラス情報格納部103は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。単語クラス情報格納部103に単語クラス情報が記憶される過程は問わない。ただし、通常、単語クラス情報取得部113が取得した単語クラス情報を、単語クラス情報蓄積部114が単語クラス情報格納部103に蓄積する。
シードパターン格納部104は、1以上のシードパターンを格納し得る。シードパターンとは、所定の関係を有する2つの単語対を取得するために利用するパターンである。シードパターンは、予め与えられたパターンである。シードパターンは、単語対や新たなパターンを取得するための元になるパターンである。また、パターンとは、2つの単語と、表現パターンを含む文字列である。パターンは、例えば、「XはYを引き起こす」「XによるY」などである。ここで、XとYに置き換わる2つの単語が単語対である。つまり、XやYは、いわゆる変数(文字列が入る)である。
なお、シードパターン格納部104に格納されているシードパターンは、例えば、10や20などのパターンである。シードパターン格納部104は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
シードパターン格納部104にシードパターンが記憶される過程は問わない。ただし、シードパターンは、通常、ユーザの手入力により、シードパターン格納部104に蓄積される。
パターン格納部105は、1以上のパターンを格納し得る。パターンとは、シードパターンではないパターンであり、所定の関係を有する2つの単語対を取得するために利用するパターンである。ただし、パターンの中に、シードパターンを含んでも良い。パターン格納部105は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。パターン格納部105にパターンが記憶される過程は問わない。ただし、通常、パターン取得部115が取得したパターンを、パターン蓄積部116がパターン格納部105に蓄積する。なお、パターンも、ユーザの手作業により蓄積されても良い。
クラス対良好度格納部106は、2つのクラスの良さを示す指標であるクラス対良好度を格納し得る。ここで、2つのクラスをクラス対という。また、2つのクラスの良さを示す指標とは、2つのクラスに属する単語対がシードパターンと良く共起する程度である。2つのクラスに属する単語対がシードパターンと良く共起するほど、良いクラス対とする。クラス対良好度は、数値である。また、良いクラス対ほど、クラス対良好度が大きい値となる。クラス対良好度格納部106は、通常、2つのクラスのクラス識別子と、クラス対良好度とを対で有するクラス対良好度情報を1以上格納している。また、クラス対の悪さを示す指標を用いることも、クラス対良好度を用いることも同意義であると考える。クラス対良好度がクラス対の悪さを示す指標である場合、例えば、クラス対良好度が大きければ大きいほど、悪いクラス対である。なお、クラス対良好度がクラス対の悪さを示す指標である場合、後述する数式において、例えば、クラス対良好度は逆数である、と考えて計算される。クラス対良好度格納部106は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。クラス対良好度格納部106にクラス対良好度が記憶される過程は問わない。ただし、通常、クラス対良好度算出部117が算出したクラス対良好度を、クラス対良好度蓄積部118がクラス対良好度格納部106に蓄積する。
パターン類似度格納部107は、パターン格納部105に格納されている1以上の各パターンとシードパターンとの類似度を、パターンごとに格納し得る。パターン類似度格納部107は、例えば、パターンを識別するパターン識別子と類似度とを対応づけて有する。また、パターン類似度格納部107は、例えば、パターンと、類似度とを対応づけて有しても良い。パターンとシードパターンとの類似度の算出方法は問わない。類似度の具体的な算出方法は後述する。パターン類似度格納部107は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。パターン類似度格納部107に類似度が記憶される過程は問わない。ただし、通常、パターン類似度算出部119が算出した類似度を、パターン類似度蓄積部120がパターン類似度格納部107に蓄積する。
親和性情報格納部108は、1以上の各単語対と1以上の各パターンとの親和性に関する情報である親和性情報を格納し得る。親和性情報は、通常、単語対とパターンとの親和性の度合いを示す数値である。親和性情報が大きいほど、単語対とパターンとの親和性の度合いが高いことを示す。親和性情報格納部108は、例えば、パターン識別子またはパターンと、単語対または単語対の識別子(2つの単語識別子でも良い)と、親和性情報とを対応付けて有する。また、親和性情報は、単語対とパターンとの親和性が低い度合いでも良い。かかる場合、親和性情報が小さいほど、単語対とパターンとの親和性の度合いが高いことを示す。親和性情報格納部108は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。親和性情報格納部108に親和性情報が記憶される過程は問わない。ただし、通常、親和性情報算出部121が算出した親和性情報を、親和性情報蓄積部122が親和性情報格納部108に蓄積する。
除外クラス対格納部109は、除外クラス対を1以上格納し得る。除外クラス対とは、最終的に出力しない単語対に対応するクラス対を示す情報である。除外クラス対は、通常、2つのクラス識別子を有する情報である。ただし、除外クラス対は、単語対など、2つのクラス識別子が取得できる元の情報でも良い。除外クラス対格納部109は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。除外クラス対格納部109に除外クラス対が記憶される過程は問わない。ただし、通常、除外クラス対蓄積部130が取得した除外クラス対を除外クラス対格納部109に蓄積する。ただし、ユーザが手入力により、除外クラス対を除外クラス対格納部109に蓄積しても良い。
クラス出現頻度情報格納部110は、クラス出現頻度情報をクラス毎に格納し得る。クラス出現頻度情報とは、1以上の文章群内における、各クラスに属する単語の平均出現頻度と、クラス識別子とを対に有する情報である。平均出現頻度は、図示しないクラス出現頻度情報取得部が、例えば、以下の処理により、取得したものである。クラス出現頻度情報取得部は、各クラスに属するすべての単語の、1以上の文章群内における出現頻度(f1,f2,・・・,fn)を取得する。次に、クラス出現頻度情報取得部は、クラスごとに、クラス内のすべての単語の平均出現頻度((f1+f2+・・・+fn)/n)を算出する。クラス出現頻度情報格納部110は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。クラス出現頻度情報格納部110にクラス出現頻度情報が記憶される過程は問わない。ただし、通常、クラス出現頻度情報算出部131が算出したクラス出現頻度情報をクラス出現頻度情報格納部110に蓄積する。ただし、ユーザが手入力により、クラス出現頻度情報をクラス出現頻度情報格納部110に蓄積しても良い。
単語対取得部111は、シードパターン格納部104に格納されている1以上のシードパターンのいずれかを取得し、文章群格納部101に格納されている1以上の文章群から、取得したシードパターンと共起する1以上の単語対を取得する。シードパターンなどのパターンと単語対が共起する、とは、文の中にパターン(単語対を除く文字列)が存在し、かつ、文の中に、単語対を構成する2つの単語が出現することである。例えば、パターンが「XはYを引き起こす」である場合、単語「X」や「Y」は、パターン「XはYを引き起こす」と共起する、という。シードパターンが、「XはYを引き起こす」である場合、単語対取得部111は、1以上の文章群の中の文に「ウィルスが風邪を引き起こす」から、単語対「ウィルス」と「風邪」を取得する。また、シードパターンが、「XによるY」であり、1以上の文章群の中の文が「交通事故による経済的な損害に関して」である場合、単語対取得部111は、以下のように処理して、単語対「交通事故」と「損害」を取得する。つまり、単語対取得部111は、「交通事故による経済的な損害に関して」に「による」が存在することをパターンマッチングなどの言語処理技術により認識する。次に、単語対取得部111は、1以上の文章群の中の文「交通事故による経済的な損害に関して」を形態素解析し、「交通事故|に|よる|経済的|な|損害|に|関して」、および各形態素の品詞を得る。そして、次に、単語対取得部111は、係り受け解析して、図4に示すような形態素間の係り受けの情報(矢印の情報)を得る。そして、単語対取得部111は、「による」に繋がる名詞「交通事故」と、「による」から繋がる名詞「損害」を取得する。この「交通事故」と「損害」が単語対である。なお、上記の形態素解析を行う技術として、JUMAN(URL:http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html 参照)や、ChaSen(URL:http://chasen.naist.jp/hiki/ChaSen/ 参照)などが存在し、公知技術である。また、係り受け解析を行う技術として、日本語構文解析システムKNP(URL:http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html 参照)などがあり、公知技術である。
単語対取得部111は、シードパターン格納部104に格納されている1以上のシードパターン、およびパターン格納部105に格納されている1以上のパターンのいずれか(通常、すべて)を用いて、単語対を取得することはさらに好適である。つまり、単語対取得部111は、1以上のシードパターンと1以上のパターンのいずれかを、順次、取得し、文章群格納部101に格納されている1以上の文章群から、シードパターンまたはパターンと共起する1以上の単語対を取得することはさらに好適である。
また、単語対取得部111は、シードパターンやパターンを用いずに単語対を取得しても良い。つまり、単語対取得部111は、1以上の文章群の中の各文から、2つの単語(通常、名詞)の対を取得しても良い。かかる場合、単語対取得部111は、1文の中に共起する1以上の単語対を取得することとなる。
単語対取得部111は、通常、MPUやメモリ等から実現され得る。単語対取得部111の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
単語対蓄積部112は、単語対取得部111が取得した1以上の単語対を、単語対格納部102に蓄積する。単語対蓄積部112は、通常、MPUやメモリ等から実現され得る。単語対蓄積部112の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
単語クラス情報取得部113は、文章群格納部101の1以上の文章群を用いて、1以上の単語クラス情報を取得する。単語クラス情報取得部113は、例えば、1以上の文章群の中の各文を形態素解析し、すべての動詞と助詞との組(すべての動詞でも良い)を取得する。また、単語クラス情報取得部113は、例えば、1以上の文章群の中の各文を形態素解析し、すべての名詞(名詞句を含む)を取得する。そして、単語クラス情報取得部113は、各名詞が、各動詞と助詞の組(または、各動詞)と共起する回数または割合を名詞ごとに算出する。次に、単語クラス情報取得部113は、名詞ごとに、各動詞と助詞の組(または、各動詞)と共起する回数または割合を要素に持つベクトルを取得する。次に、単語クラス情報取得部113は、名詞ごとのベクトルが予め決められた以上に類似する名詞の集合を一つのクラスに属するものとして、単語クラス情報を取得する。なお、単語クラス情報は、1以上の単語とクラス識別子とを有する情報である。また、クラスの数は、例えば、数百、または数千などの多い数である。
単語クラス情報取得部113は、通常、MPUやメモリ等から実現され得る。単語クラス情報取得部113の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
単語クラス情報蓄積部114は、単語クラス情報取得部113が取得した2以上の単語クラス情報を単語クラス情報格納部103に蓄積する。単語クラス情報蓄積部114は、通常、MPUやメモリ等から実現され得る。単語クラス情報蓄積部114の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
パターン取得部115は、文章群格納部101に格納されている1以上の文章群の各文から、パターンを取得する。具体的には、例えば、パターン取得部115は、文章群格納部101に格納されている1以上の文章群の各文に対して、形態素解析および係り受け解析し、第一の名詞(名詞句を含む)を起点として、第二の名詞を終点として、起点から終点までに至る形態素の繋がりをパターンとして取得する。または、パターン取得部115は、起点からの形態素の繋がりと終点からの形態素の繋がりが結ばれる形態素までをパターンとして取得することはさらに好適である。例えば、1以上の文章群の文が「交通事故による経済的な損害に関して」である場合、パターン取得部115は、当該文を形態素解析し、「交通事故|に|よる|経済的|な|損害|に|関して」を得る。また、形態素解析により、パターン取得部115は、第一の名詞「交通事故」と第二の名詞「損害」が名詞であることを検出する。そして、係り受け解析により、パターン取得部115は、図4の係り受けの情報を得る。次に、パターン取得部115は、第一の名詞「交通事故」を起点として、第二の名詞「損害」を終点として、起点から終点までに至る形態素の繋がり「XによるY」をパターンとして取得する。なお、ここで、第二の名詞「損害」に繋がる形態素群「経済的な」は、パターンから消去される。また、例えば、1以上の文章群の文が「交通事故による経済の損害に関して」である場合、パターン取得部115は、当該文を形態素解析し、「交通事故|に|よる|経済|の|損害|に|関して」を得る。パターン取得部115は、第一の名詞「交通事故」と第二の名詞「経済」と第三の名詞「損害」が名詞であることを検出する。そして、係り受け解析により、パターン取得部115は、図5の係り受けの情報を得る。次に、パターン取得部115は、第一の名詞「交通事故」である起点からの形態素の繋がりと、第二の名詞「経済」である終点からの形態素の繋がりが結ばれる形態素「損害」までをパターンとして取得する。ここで、パターン取得部115は、「XによるYの損害」をパターンとして取得する。
また、パターン取得部115は、与えられた2つの名詞(単語対)を用いて、パターンを取得しても良い。つまり、例えば、2つの名詞「交通事故」と「損害」とが与えられた時に、パターン取得部115は、「交通事故による経済的な損害に関して」に「交通事故」と「損害」とが含まれることを検知する。そして、パターン取得部115は、「交通事故による経済的な損害に関して」を形態素解析し、かつ、係り受け解析し、図4の係り受けの情報を得る。次に、パターン取得部115は、第一の名詞「交通事故」を起点として、第二の名詞「損害」を終点として、起点から終点までに至る形態素の繋がり「XによるY」をパターンとして取得する。
パターン取得部115は、通常、MPUやメモリ等から実現され得る。パターン取得部115の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
パターン蓄積部116は、パターン取得部115が取得した1以上のパターンをパターン格納部105に蓄積する。パターン蓄積部116は、通常、MPUやメモリ等から実現され得る。パターン蓄積部116の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
クラス対良好度算出部117は、2つの各クラスに属する単語対が、文章群格納部101の1以上の文章群の中で、1以上のシードパターンと共起する回数または割合が多いほどクラス対良好度が大きくなるようにクラス対良好度を算出する。クラス対良好度(CScore(Ci,Cj,P))は、例えば、以下の数式1により算出される。なお、数式1において、クラス対良好度はクラス対の良さを示すものとしているので、クラス対良好度がクラス対の悪さを示す指標である場合、CScore(Ci,Cj,P)は、例えば、数式1における算出結果の逆数になる。
ここで、niやnjは名詞(単語)である。ciやcjはクラスである。また、Pは、シードパターンの集合である。*は、任意のパターンを示す。そして、||(ni,P,nj)||は、名詞niとnjが、シードパターンの集合と共起する頻度である。つまり、「||(ni,P,nj)||=Σp∈P||(ni,P,nj)||」のことである。また、||(ni,*,nj)||は、名詞niとnjが、1以上の文章群(M)の中で、任意のパターンと共起する頻度である。つまり、「||(ni,*,nj)||=Σ(ni,p,nj)∈M||(ni,p,nj)||」である。よって、||(ni,*,nj)||は、名詞niとnjが、単に共起する頻度と等しい。
また、αは、条件を示す。また、αは、所定数の異なるシードパターンと共起しなければならないという条件である。また、αの例は、数式2である。数式2において、niやnjが、β(例えば、3)以上の異なるシードパターンと共起することを示す。つまり、数式2が条件(α)である場合、2以下のシードパターンとしか共起しない単語対(niやnj)のクラス対良好度は、0となる。
数式2において、Mは、1以上の文章群である。
また、数式1において、クラス対良好度(CScore(ci,cj,P))は、2つの各クラスに属する単語が、1以上のシードパターンと共起する回数または割合が多いほど、その度合いが大きくなるような算出式の一例である。また、数式1において、2つの各クラスに属する単語が、シードパターン以外のパターンと共起する回数が多いほど、その度合いが小さくなるような算出式の一例である。
なお、クラス対良好度の代わりに、クラス対が良好でない度合いを用いた場合は、2つの各クラスに属する単語が、1以上のシードパターンと共起する回数または割合が多いほど、その度合いが小さくなるように算出される。この場合も、2つの各クラスに属する単語が、1以上のシードパターンと共起する回数または割合が多いほど、クラス対良好度が大きくなるように、クラス対良好度を算出することと同意義ととらえる。
クラス対良好度算出部117は、通常、MPUやメモリ等から実現され得る。クラス対良好度算出部117の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
クラス対良好度蓄積部118は、クラス対良好度算出部117が算出したクラス対良好度を、クラス対良好度格納部106に蓄積する。クラス対良好度蓄積部118は、通常、MPUやメモリ等から実現され得る。クラス対良好度蓄積部118の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
パターン類似度算出部119は、1以上のシードパターンと、パターン格納部105に格納されている各パターンとの類似度を算出する。パターン類似度算出部119は、通常、1以上のシードパターンと共起する単語対に対応するクラス対と、1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、シードパターンとパターンとの類似度が大きくなるように、類似度を算出する。
パターン類似度算出部119は、シードパターンとパターンとの類似度を、例えば、数式3、数式4、数式5、数式6、または数式7により算出する。つまり、類似度は、Para(pci×cj,P)、Para(pci×cj,P)、Para(pci×cj,P)、Para(pci×cj,P)、またはPara(pci×cj,P)などである。数式3から7において、Pは、シードパターンの集合であり、pは、いずれかのパターンである。通常、pは、シードパターンでも良い。
数式3において、シードパターンとパターンとの類似度は、(Para(pci×cj,P))である。また、「I(pci×cj)」は、あるパターンpと、クラスciとクラスcjに属する単語niとnjとが共起するインスタンスの集合を示す。「I(pci×cj)」は、{(ni,nj)∈ci×cj|(ni,p,nj)∈M}である。また、「(Pci×cj)」は、いずれかのシードパターンとクラスciとクラスcjに属する単語niとnjとが共起するインスタンスを示す。そして、「I(Pci×cj)=∪p∈PI(pci×cj)」である。そして、||I(pci×cj)∩I(Pci×cj)||は、「I(pci×cj)」と「(Pci×cj)」の重なりのインスタンスの数である。また、||I(pci×cj)∪I(Pci×cj)||は、「I(pci×cj)」と「(Pci×cj)」の和集合のインスタンスの数である。
Para1は、パターンpと共起するクラスciとクラスcjに属する単語niとnjと、シードパターンの集合(P)と共起するクラスciとクラスcjに属する単語niとnjとのJaccard係数として算出される。Para1によって、クラス依存であり、パターンpを用いて生成される多くの単語対「pci×cj」の中から、適切なクラスを選択できることとなる。
数式3を用いれば、1以上のシードパターンと共起する単語対に対応するクラス対と、1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、シードパターンとパターンとの類似度が大きくなるように、類似度が算出される。また、数式3を用いれば、「I(pci×cj)」と「(Pci×cj)」の和集合のインスタンスの数が多いほど、類似度が小さくなるように、類似度が算出される。
また、パターン類似度算出部119は、例えば、数式3を用いて、シードパターンとパターンとの類似度を算出する場合、「I(pci×cj)」と「(Pci×cj)」との交わりがないパターン(||I(pci×cj)∩I(Pci×cj)||=0のパターン)を除くことは好適である。かかることにより、処理の高速化が図れる。
また、数式3の変形として、以下のようにシードパターンとパターンとの類似度(Para')を算出しても良い。
つまり、pと共起する単語対をベクトルの要素、パターンpと共起する単語対の個数をその単語対のベクトルの要素の値とするベクトルVpをpに対して構成する。そして、ードパターンPと共起する単語対をベクトルの次元、Pと共起する単語対の個数をその単語対のベクトルの次元の値とするベクトルVPをPに対して構成する。ただし、シードパターPは集合であるので、Pの各pに対して、ベクトルを作り、そのベクトルの和を、Pのベクトルとする。
そして、これらのベクトルの距離、または角度を算出する。距離は、|Vp−VP|(Vp,VPの各ベクトルの要素の値の差の二乗の和の平方根)により算出できる。角度は、Vp・VP/|Vp|/|VP|により算出できる。なお、Vp・VPは、内積(Vp,VPの各ベクトルの要素の値の積の和)であり、|Vp|はベクトルの大きさ(Vpのベクトルの要素の値の二乗の和の平方根)である。
これは、ベクトルVpとベクトルVPの類似度が大きいほど、シードパターンとパターンとの類似度が大きくなることであり、言い換えれば、上述したように、1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、シードパターンとパターンとの類似度が大きくなる、ということである。
数式4において、クラスに独立なパターンも、類似度の算出に取り入れている。また、数式4は、数式3の「Para(pci×cj,P)」を用いた変形例である。希なクラスの結合は、少しのインスタンスのみを含んでいるという問題(希薄性問題という。)がある。数式4は、この希薄性問題を解決するものである。数式4における「I(p)」は、文章群(M)において、パターンpと共起する単語対のインスタンスの集合である。「I(P)」は、シードパターンPと共起する単語対のインスタンスの集合である。そして、||I(p)∩I(P)||は、「I(p)」と「I(P)」の重なりのインスタンスの数である。また、||I(p)∪I(P)||は、「I(p)」と「I(P)」の和集合のインスタンスの数である。なお、数式4は、クラス対の中のJaccard係数の補足となる。つまり、数式4において、クラスに含まれる単語対に限定せず、すべての単語対に関して計算されている。
数式4も数式3と同様に、1以上のシードパターンと共起する単語対に対応するクラス対と、1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、シードパターンとパターンとの類似度が大きくなるように、類似度が算出される。また、「I(pci×cj)」と「(Pci×cj)」の和集合のインスタンスの数が多いほど、類似度が小さくなるように、類似度が算出される。また、数式4を用いれば、「I(p)」と「I(P)」の重なりのインスタンスの数が多いほど、シードパターンとパターンとの類似度が大きくなるように、類似度が算出される。さらに、数式4を用いれば、「I(p)」と「I(P)」の和集合のインスタンスの数が多いほど、類似度が小さくなるように、類似度が算出される。
数式5において、||I(pci×cj)||+||I(Pci×cj)||は、あるパターンpと、クラスciとクラスcjに属する単語niとnjとが共起するインスタンスの集合の数と、シードパターンPとクラスciとクラスcjに属する単語niとnjとが共起するインスタンスの集合の数との和である。なお、数式の変形として、Para3の分母の||I(pci×cj)||+||I(Pci×cj)||を、||I(pci×cj)||×||I(Pci×cj)||などと変形しても良い。また、Para3の分母について、||I(pci×cj)||と||I(Pci×cj)||の重み付けを行って、和算または積算を行っても良い。つまり、数式5は、||I(pci×cj)||と||I(Pci×cj)||とをパラメータとする減少関数であれば良い。また、数式5は、||I(pci×cj)∩I(Pci×cj)||をパラメータとする増加関数であれば良い。
数式6において、max(||I(pci×cj)||,||(Pci×cj)||)は、クラスciとクラスcjに属する単語niとnjとが共起するインスタンスの集合の数と、シードパターンPとクラスciとクラスcjに属する単語niとnjとが共起するインスタンスの集合の数とのうちの大きい方の数である。数式6において、||I(pci×cj)∩I(Pci×cj)||をパラメータとする増加関数であれば良い。
また、数式7において、DKL(p||p)は、数式8のように示される。数式8におけるDKL(p||p)は、確率分布p1とp2とのKullback-Leiblerダイバージェンス(KLダイバージェンスとも言う。)である。Kullback-Leiblerダイバージェンスについては、「風間淳一, De Saeger, Stijn, 鳥澤健太郎, 村田真樹「係り受けの確率的クラスタリングを用いた大規模類似語リストの作成」言語処理学会第15回年次大会(NLP2009)」等に説明されている。Kullback-Leiblerダイバージェンスは、公知であるので、詳細な説明を省略する。
数式7、8において、pとpは、クラス対ci×cjに属する単語対(ni、nj)と、pci×cjとが共起する確率分布である。pは、クラス対ci×cjに属する単語対(ni、nj)と、Pとが共起する確率分布である。
また、パターンpと共起する単語対をベクトルの次元、pと共起する単語対の個数をpの総出現数で割った値を、その単語対のベクトルの次元の値とするベクトルVpをpに対して作成する。そして、この各ベクトルの要素(ni,nj)の値が、p1(ni,nj)である。
また、シードパターンPと共起する単語対をベクトルの次元、Pと共起する単語対の個数をPの総出現数で割った値を、その単語対のベクトルの次元の値とするベクトルVPをPに対して作成する。そして、この各ベクトルの要素(ni,nj)の値が、p2(ni,nj)である。
なお、KLダイバージェンスも、ベクトル同士の類似度が大きいものをとる指標である。つまり、KLダイバージェンスにおいて、例えば、pとpが同じである場合、DKLのp/pが1になり、log/pが0になり、KLダイバージェンスも0になる。また、pとpとが異なる値の場合、最終的なKLダイバージェンスの値は正の値となる。
パターン類似度算出部119は、通常、MPUやメモリ等から実現され得る。パターン類似度算出部119の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
パターン類似度蓄積部120は、パターン類似度算出部119が算出したパターン類似度を、パターンごとに、パターン類似度格納部107に蓄積する。
パターン類似度蓄積部120は、通常、MPUやメモリ等から実現され得る。パターン類似度蓄積部120の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
親和性情報算出部121は、単語対とパターンとの親和性情報を算出する。親和性情報算出部121は、単語対取得部111が取得した1以上の単語対と、1以上の各パターンとが共起する回数または割合が多いほど、大きくなるように親和性情報を算出することは好適である。親和性情報算出部121は、例えば、数式9、または数式10により、単語対とパターンとの親和性を算出する。
数式9において、親和性情報(Assoc1)は、定数の1であるので、後述するスコア算出において、親和性情報が考慮されないことと同様である。
数式10において、||(n,p,n')||は、単語対(n,n')と、パターンpとが共起する頻度である。つまり、親和性情報算出部121は、かかる頻度が大きいほど、大きくなるように親和性情報を算出することとなる。また、||(n,*,n')||は、単語対(n,n')が任意のパターンと共起する(つまり、単語対(n,n')の出現の)頻度である。さらに、||(*,p,*)||は、パターンpの出現頻度である。つまり、親和性情報は、単語対(n,n')が任意のパターンと共起する頻度が高ければ高いほど、小さな値となる。また、親和性情報は、パターンpの出現頻度が高ければ高いほど、小さな値となる。
親和性情報算出部121は、通常、MPUやメモリ等から実現され得る。親和性情報算出部121の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
親和性情報蓄積部122は、親和性情報算出部121が算出した親和性情報を、親和性情報格納部108に蓄積する。親和性情報蓄積部122は、通常、単語対とパターンと親和性情報とを対応付けて、親和性情報格納部108に蓄積する。親和性情報蓄積部122は、通常、MPUやメモリ等から実現され得る。親和性情報蓄積部122の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
クラス対良好度取得部123は、単語対取得部111が取得した1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度をクラス対良好度格納部106から取得する。ここで、通常、クラス対良好度取得部123は、2つのクラスの2つのクラス識別子であるクラス識別子対(2つのクラス識別子)を単語クラス情報格納部103から取得し、該クラス識別子対に対応するクラス対良好度をクラス対良好度格納部106から取得する。クラス対良好度取得部123は、通常、MPUやメモリ等から実現され得る。クラス対良好度取得部123の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
パターン類似度取得部124は、シードパターンとパターンとの類似度を、パターン類似度格納部107から取得する。パターン類似度取得部124は、例えば、スコア算出対象のパターンを識別するパターン識別子に対応する類似度を、パターン類似度格納部107から取得する。パターン類似度取得部124は、通常、MPUやメモリ等から実現され得る。パターン類似度取得部124の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
親和性情報取得部125は、親和性情報を、親和性情報格納部108から取得する。親和性情報取得部125は、例えば、スコア算出対象のパターンおよびスコア算出対象の単語対に対応する親和性情報を、親和性情報格納部108から取得する。親和性情報取得部125は、通常、MPUやメモリ等から実現され得る。親和性情報取得部125の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
スコア決定部126は、クラス対良好度取得部123が取得したクラス対良好度を用いて、単語対取得部111が取得した各単語対のスコアを決定する。スコア決定部126は、クラス対良好度を増加関数とする演算式により、スコアを決定する。また、スコア決定部126は、パターン類似度格納部107に格納されている1以上の各パターンとシードパターンとの類似度をも用いて、単語対取得部111が取得した各単語対のスコアを決定することは好適である。かかる場合、スコア決定部126は、類似度を増加関数とする演算式により、スコアを決定する。また、スコア決定部126は、親和性情報格納部108の親和性情報をも用いて、単語対取得部111が取得した各単語対のスコアを決定することは好適である。かかる場合、スコア決定部126は、親和性情報を増加関数とする演算式により、スコアを決定する。
また、スコア決定部126は、数式11に示すように、クラス対良好度、シードパターンとパターンとの類似度、および親和性情報との積が最も大きいシードパターンまたはパターンにおけるスコアを、各単語対のスコアとして決定することは好適である。
また、スコア決定部126は、例えば、数式11におけるParaは、上述したPara1からPara5のいずれかが適用できる。また、スコア決定部126は、数式11におけるAssocは、上述したAssoc1またはAssoc2のいずれかが適用できる。つまり、数式11は、さらに具体的には、以下の数式12、または数式13、または数式14等でも良い。数式12から数式14において、引数、および演算子「max」は省略されている。なお、数式12により、スコアを算出する方法を、Class Dependent I(CD−I)という。また、数式13により、スコアを算出する方法を、Class Dependent II(CD−II)という。さらに、数式14により、スコアを算出する方法を、Class Dependent III(CD−III)という。
数式11から数式14において、スコアは、Cscore、Para、およびAssocの3つの値の積により算出された。ただし、スコアは、3つの値の和で算出されても良いし、スコアは、Cscore×Para×Assocにより算出されても良い。つまり、スコアは、Cscore、Para、およびAssocをパラメータとして算出されれば良い。また、スコアは、通常、Cscoreが大きいほど大きな値となり、Paraが大きいほど大きな値となり、Assocが大きいほど大きな値となる。
スコア決定部126は、通常、MPUやメモリ等から実現され得る。スコア決定部126の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
単語対選択部127は、スコア決定部126が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する。単語対選択部127は、通常、スコアにより単語対をソートして、例えば、スコアが閾値以上の単語対を取得する。または、単語対選択部127は、スコアにより単語対をソートして、スコアが上位から所定数(例えば、1000)の単語対を取得するなどしても良い。また、単語対選択部127は、スコアにより単語対をソートして、例えば、単語対出力部128が、スコアの上位から降順に、すべての単語対を出力するようにしても良い。かかる場合も、単語対選択部127は、1以上の単語対を取得し、単語対出力部128は、1以上の単語対を出力したこととなる。
単語対選択部127は、通常、MPUやメモリ等から実現され得る。単語対選択部127の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
単語対出力部128は、単語対選択部127が取得した1以上の単語対を出力する。ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、プリンタへの印字、音出力、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。単語対出力部128は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。単語対出力部128は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
単語対除外部129は、除外クラス対格納部109に格納されている1以上のいずれかの除外クラス対に対応する単語対を出力する単語対から除外する。また、単語対出力部128は、単語対除外部129が除外した単語対について、通常、出力しない。ここで、除外するとは、通常、削除する、意味である。ただし、除外するとは、スコアを低くすることや、当該単語対の順位を下げる(例えば、最下位にする)などのことも含んでも良い。単語対除外部129は、通常、MPUやメモリ等から実現され得る。単語対除外部129の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
除外クラス対蓄積部130は、平均出現頻度が予め決められた閾値以上の差を有する2つのクラスのクラス識別子を除外クラス対として、除外クラス対格納部109に蓄積する。閾値は、例えば、25倍である。除外クラス対蓄積部130は、通常、MPUやメモリ等から実現され得る。除外クラス対蓄積部130の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
次に、単語対取得装置1の動作について、図6のフローチャートを用いて説明する。図6のフローチャートにおいて、単語対格納部102、単語クラス情報格納部103、シードパターン格納部104、パターン格納部105、クラス対良好度格納部106、パターン類似度格納部107、親和性情報格納部108、および除外クラス対格納部109の構成要素の中に、各構成要素が格納し得る情報が格納された後、所定の関係にある単語対を出力する処理について説明する。
(ステップS601)スコア決定部126は、カウンタiに1を代入する。
(ステップS602)スコア決定部126は、単語対格納部102(または、単語対取得部111が取得した単語対のうち)に、i番目の単語対が存在するか否かを判断する。i番目の単語対が存在すればステップS603に行き、i番目の単語対が存在しなければステップS618に行く。
(ステップS603)スコア決定部126は、i番目の単語対を取得する。
(ステップS604)スコア決定部126は、i番目の単語対に対するクラス対を取得する。ここで、クラス対とは、2つのクラス識別子であっても良い。
(ステップS605)スコア決定部126は、ステップS604で取得したクラス対が、除外クラス対格納部109に格納されている除外クラス対であるか否かを判断する。除外クラス対であればステップS617に行き、除外クラス対でなければステップS606に行く。
(ステップS606)スコア決定部126は、クラス対良好度格納部106から、ステップS604で取得したクラス対に対応するクラス対良好度を取得する。
(ステップS607)スコア決定部126は、カウンタjに1を代入する。
(ステップS608)スコア決定部126は、j番目のパターンが、パターン格納部105または、シードパターン格納部104に存在するか否かを判断する。j番目のパターンが存在すればステップS609に行き、存在しなければステップS615に行く。
(ステップS609)スコア決定部126は、j番目のパターンをパターン格納部105または、シードパターン格納部104から取得する。
(ステップS610)スコア決定部126は、j番目のパターンに対応する類似度を、パターン類似度格納部107から取得する。
(ステップS611)スコア決定部126は、i番目の単語対、およびj番目のパターンに対応する親和性情報を、親和性情報格納部108から取得する。
(ステップS612)スコア決定部126は、ステップS606で取得したクラス対良好度、ステップS610で取得した類似度、およびステップS611で取得した親和性情報を用いて、i番目の単語対、およびj番目のパターンに対応するスコアを算出する。
(ステップS613)スコア決定部126は、ステップS612で算出したj番目のパターンに対応するスコアを、バッファに一時蓄積する。
(ステップS614)スコア決定部126は、カウンタjを1、インクリメントする。ステップS608に戻る。
(ステップS615)スコア決定部126は、ステップS613でバッファに一時蓄積したスコアの中で、最大のスコアを取得する。
(ステップS616)スコア決定部126は、ステップS615で取得したスコアを、i番目の単語対と対応付けて蓄積する。
(ステップS617)スコア決定部126は、カウンタiを1、インクリメントする。ステップS602に戻る。
(ステップS618)単語対選択部127は、ステップS616で蓄積したスコアをキーとして、単語対をソートする。
(ステップS619)単語対選択部127は、ステップS618でソートした単語対のうち、予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する。
(ステップS620)単語対出力部128は、ステップS619で取得された1以上の単語対を出力し、処理を終了する。
なお、図6のフローチャートにおいて説明しなかったが、単語対格納部102の単語対、単語クラス情報格納部103の単語クラス情報、シードパターン格納部104のシードパターン、パターン格納部105のパターン、クラス対良好度格納部106のクラス対良好度、パターン類似度格納部107の類似度、親和性情報格納部108の親和性情報、および除外クラス対格納部109の除外クラス対について、それぞれ上述した処理により、格納される。
また、図6のフローチャートにおいて、除外クラス対に対応する単語対を処理から除くことは、ステップS605において、行われた。しかし、除外クラス対に属する単語対を、出力する単語対から除く処理は、他のタイミング(例えば、出力する直前など)でも良い。
以下、本実施の形態における単語対取得装置1の具体的な動作について説明する。 今、文章群格納部101は、ウェブ上の1以上のウェブページを格納している。また、単語対格納部102は、1以上のウェブページから取得した名詞である単語の対を多数格納している。
また、単語クラス情報格納部103は、例えば、図7に示すような単語クラス情報管理表を保持している。図7に示す単語クラス情報管理表は、クラス識別子「C290」および「C471」の単語クラス情報のみを示している。また、一の単語が複数のクラスに属することもあり得る。なお、本単語クラス情報管理表は、例えば、単語クラス情報取得部113が上述した処理により、取得した情報である。
また、クラス出現頻度情報格納部110は、図8に示すクラス出現頻度情報管理表を保持している。クラス出現頻度情報管理表は、「クラス」と「平均出現頻度」とを有するレコードである。「クラス」は、クラス識別子が属性値となる。「平均出現頻度」は、クラス識別子で識別されるクラスに属する単語対の平均出現頻度が属性値となる。
かかる状況において、3つの実験を行った。実験1は、原因と結果の単語対を取得する実験である。実験2は、製品と材料の単語対を取得する実験である。実験3は、現象と防止手段を取得する実験である。
また、3つの実験において、4つのベースライン方法と、本願の単語対取得装置1による方法とを比較する実験を行った。4つのベースライン方法のうちの第一の方法は、Espresso(ESP)と呼ばれる方法である(非特許文献1参照)。ESPは、上述したように、取り出したい単語対を少量与えて、当該単語対からパターンを取得する。そして、従来の単語対取得装置は、その取得したパターンと共起する単語対を取得するものである。また、ESPは、反復するブートストラップ方法である。
また、4つのベースライン方法のうちの第二の方法は、単語対取得装置1とは異なり、クラスを用いない方法である。つまり、この第二の方法は、Single Class(SC)と呼び、数式15により、単語対のスコアが算出される。
数式15において、「I(p)」は、パターンpと共起する単語対のインスタンス、「I(P)」は、シードパターンPと共起する単語対のインスタンスである。また、||I(p)∩I(P)||は、「I(p)」と「I(P)」の重なり(差集合)のインスタンスの数である。また、||I(p)∪I(P)||は、「I(p)」と「I(P)」の和集合のインスタンスの数である。
また、4つのベースライン方法のうちの第三の方法、および第四の方法は、ランダムベースラインメソッドである。第三の方法は、「R−I」という。R―Iは、1以上の文章群から、パターンpと共起する単語対を取得する方法である。第四の方法は、「R−II」という。R―IIは、1以上の文章群から、シードパターンPと共起する単語対を取得する方法である。
また、単語対取得装置1による方法とは、上述したCD−I、CD−II、CD−IIIの3つである。
また、3つの各実験で、すべての方法に与えるシードパターンは同じである。ただし、当然ながら、3つの実験で利用するシードパターンは異なる。そして、3名の判断者が、各方法が出力した単語対が正しいか否かを判断した。
また、各方法において、出力であるランク付けされた単語対の集合を、セグメントに分割した。セグメントとは、例えば、上位5000、上位5000から15000、上位15000から35000、および上位35000から75000である。そして、各方法において、各セグメントから、ランダムに100のサンプル(単語対)を取得した。そして、すべてのセグメントにおいて、単語対が所定の関係の単語対である正解率(精度)を算出した。なお、実験において、2つの評価基準を適用した。一つ目は、3名が正解とした場合のみ、単語対を正解とする「厳しい(strict)」判断、2つ目は、過半数(2名)が正解とした場合も、単語対を正解とする「寛大な(lenient)」判断である。また、評価のために、500の単語対のストップワードリストを使用した。このようにすることで、各方法の出力から代名詞の対、名詞化の対、およびストップワードの対を除外できた。
(実験1)
実験1は、原因と結果の単語対を取得する実験である。実験1において、シードパターン格納部104には、例えば、「XはYを引き起こす」「XがYの原因となる」などの20のシードパターンを格納した。
単語対取得装置1のCD−IIIによる方法では、図9に示すような単語対等の出力が得られた。図9において、クラス対、ランク、および単語対を示す。ランクは、スコアにより付けられた順位である。CD−IIIを用いた場合、予期しない単語対が、Web(1以上の文章群)から取得できた。これは、Webから、知らない、かつ有用な単語対(結果と原因の単語対)が取得できることを示している。図10は、実験1における各方法の精度を示すグラフである。図10において、横軸(Samples Ranked by Score)は、スコアにより、ランク付けしたサンプル(単語対)を示し、縦軸(Precision(%))は、単語対の正解率(精度)を示す。図10によれば、単語対取得装置1のCD−IIIの方法(寛大な(lenient)ケース)において、トップ60,000の単語対の精度は70%以上であり、トップ30,000の単語対の精度は80%以上である。これは、ESPやSCと比較して、CD−IIIの精度が極めて高いことを示す。さらに、トップ5000のセグメントにおいて、CD−II(寛大な(lenient)ケース)は、93%程度の精度を達成している。以上により、CD−IIやCD−IIIのクラスを用いた方法は、極めて効果的であることが言える。
なお、「XはYを引き起こす」「XがYの原因となる」というシードパターンを用いた場合、単語対取得装置1において、32,213の単語対(20,687のストップワードを除く)が取得できた。また、1,282のクラスに単語が分類できた。なお、ストップワードとは、出力から除外すべきワードである。
また、8回の反復を行ったEspressoでは、「XによるY」のパターンを用いて、1,520,662の単語対が取得できた。
また、R−I(完全にランダムなベースライン方法)では、100のランダムに取得した(n,p,n')タップルから、原因と結果の関係を有する単語対を取得できなかった。また、R−IIの方法では、シードパターンと共起する20,678のタップルからランダムに100のタップルを選択したところ、厳しい(strict)ケースで46%の精度、寛大な(lenient)ケースで71%の精度であった。これらは、いずれも、単語対取得装置1の方法よりも悪いことが分かった。
(実験2)
実験2は、製品と材料の単語対を取得する実験である。実験2において、シードパターン格納部104には、例えば、「YはXにより作られる」「XはYの材料である」などの14のシードパターンを格納した。
そして、単語対取得装置1を用いて、例えば、図11に示すような単語対等の出力が得られた。また、単語対取得装置1の単語対取得部111は、11,471の単語対(8,633のストップワードを取り除いた後)を取得できた。また、単語対取得装置1は、620のクラス対を取得した。
また、図12は、実験2における各方法の精度を示すグラフである。図12において、単語対取得装置1におけるCD−IIIの方法(寛大な(lenient)ケース)は、トップ30,000のサンプル(セグメント)において、80%以上の精度であることを示している。一方、Espress(寛大な(lenient)ケース)では、50%程度の精度であり、CD−IIIの方法はEspressと比較して、30%以上も優れていた。
また、クラス依存の方法であるCD−I、CD−IIでは、上位のランクのセグメントを見れば、非常に良い結果を示している。ただし、CD−I、CD−IIでは、下位のランクでは、急激に精度が低下している。なお、Espresso(寛大な(lenient)ケース)は、CD−I(寛大な(lenient)ケース)の低ランク(30,000程度)に対しては優位である。
さらに、R−Iでは、正しい単語対を取得できなかった。また、R−IIでは、厳しい(strict)ケースで59%の精度、寛大な(lenient)ケースでは72%の精度で、単語対を取得した。
(実験3)
実験3は、現象と防止手段の単語対を取得する実験である。実験3において、シードパターン格納部104には、例えば、「XによりYを防ぐ」「Yを防止するX」などの20のシードパターンを格納した。
単語対取得装置1による方法では、例えば、図13に示すような単語対等の出力が得られた。また、単語対取得装置1の単語対取得部111は、18,512の単語対(9,946のストップワードを取り除いた後)を取得できた。また、単語対取得装置1は、1,161のクラス対を取得した。
また、図14は、実験3における各方法の精度を示すグラフである。図12において、単語対取得装置1におけるCD−IIIの方法は、トップの2つのセグメント(トップ5,000、および5,000から15,000)において、EspressoとSCと比較して、優れていることが分かる。この実験3では、単語対取得装置1による方法のうち、CD−IIIのみ評価した。また、実験3において、CD−IIIの方法を、拡張した方法(CD−IIIa、CD−IIIb)をも用いて、単語対取得装置1を評価した。拡張した方法を用いたのは、シードパターンを含むパターンにより取得された単語対の中には、具体的な防止手段より、その自体を防止する行為を示す単語が含まれていたからである。例えば、単語対取得装置1が取得した単語対には、パターン「Yを防止するX」に対応して「空腹を防止する手段」や「漏れを防止するメカニズム」の中の「空腹」と「手段」、「漏れ」と「メカニズム」など単語対があった。「手段」や「メカニズム」などは、不適切であるとして、除外するようにした。これは、上述した除外クラス対格納部109の除外クラス対を用いて、採用しない単語対を決定することなどである。
CD−IIIaは、CD−IIIと似ているが、除外クラス対格納部109の除外クラス対に対応する単語対を除く点が異なる。CD−IIIaにおいて、平均出現頻度が予め決められた閾値以上の差を有する2つのクラスのクラス識別子を除外クラス対としている。ここで、閾値は、25倍である。除外クラス対を利用するのは、非常に出現頻度の高い単語が属するクラスに属する単語は、所定の関係にある良好な単語対を構成する単語になりにくい、と考えられるからである。なお、図8の平均出現頻度管理表を用いた場合、クラス9とクラス49の平均出現頻度の差は、25倍以上(約135倍)であり、クラス9とクラス49は、除外クラス対となる。
また、CD−IIIbも、CD−IIIaと同様に、CD−IIIと似ているが、除外クラス対格納部109の除外クラス対に対応する単語対を除く点が異なる。CD−IIIbにおいて、手作業で9つの除外クラス対を与えている。実験者が、CD−IIIの出力をチェックし、9つの除外クラス対を決定した。図14によれば、概ね、CD−IIIbが良好な結果を示している。
さらに、R−Iでは、厳しい(strict)および寛大な(lenient)ケースともに、100サンプルの中からは、正しい単語対を取得できなかった。また、R−IIでは、厳しい(strict)ケースで59%の精度、寛大な(lenient)ケースでは68%の精度で、単語対を取得した。
以上、本実施の形態によれば、所定の関係にある単語対を、精度高く取得できる。
なお、本実施の形態において、クラス対良好度のみを利用して、単語対のスコアを算出しても良い。かかる場合、例えば、スコアは、クラス対良好度と一致しても良い。そして、この単語対取得装置1は、1以上の文章群を格納し得る文章群格納部と、1以上の単語と当該1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し得る単語クラス情報格納部と、2つのクラスの良さを示す指標であるクラス対良好度を格納し得るクラス対良好度格納部と、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納し得るシードパターン格納部と、前記シードパターン格納部に格納されている1以上のシードパターンのいずれかを取得し、前記文章群格納部に格納されている1以上の文章群から、前記取得したシードパターンと共起する1以上の単語対を取得する単語対取得部と、前記単語対取得部が取得した1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度を前記クラス対良好度格納部から取得するクラス対良好度取得部と、前記クラス対良好度取得部が取得したクラス対良好度を用いて、前記単語対取得部が取得した各単語対のスコアを決定するスコア決定部と、前記スコア決定部が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択部と、前記単語対選択部が取得した1以上の単語対を出力する単語対出力部とを具備する単語対取得装置である。
また、本実施の形態において、単語クラス情報格納部103は、単語ごとに、確率分布情報を格納していても良い。確率分布情報とは、用語が、1以上の各クラスに属する確率の分布(集合)の情報である。確率分布情報は、ベクトルを構成し得る。クラスとは、名詞を1以上有する情報群、または、名詞を抽象化したものを1以上有する情報群である。クラスとは、例えば、同じ動詞、または同じ動詞と助詞の組と共起しやすい名詞の集合である。クラスは、適宜、隠れクラスという。なお、かかる場合、単語クラス情報格納部103が有する単語クラス情報は、図15のようになる。図15は、確率分布管理表である。なお、確率分布管理表の各データは、単語毎に各クラスに属する確率を有するベクトルであるが、このベクトルも、1以上の単語と当該1以上の単語が属するクラスのクラス識別子とを対応づけて有する単語クラス情報の一種である、と言える。なお、図15において、クラス識別子は、ベクトル内の要素番号で決まる。
そして、単語クラス情報取得部113は、文章群格納部101の1以上の文章群を用いて、図15のような確率分布管理表を構築しても良い。つまり、例えば、1,000,000の名詞句と、100,000の動詞と助詞のセットを用いて、確率「P(<v,rel>|n)」を1以上の文章群(Shinzatoらが発表した以下のウェブコーパス「K. Shinzato, D. Kawahara, C. Hashimoto and S. Kurohashi. 2008. A Large-Scale Web Data Collection as A Natural Language Processing Infrastructure. In the 6th International Conference on Language Resources and Evaluation (LREC).」)から取得する。なお、<v,rel>の組の発生の条件付き確率「P(<v,rel>|n)」は、以下の数式16により算出できる。「P(<v,rel>|n)」は、名詞nの文法的なコンテキストの確率分布である。なお、vは動詞、relは助詞、nは名詞(名詞句を含む)である。なお、名詞は単語に相当する。また、名詞nと助詞relからなる文節が、動詞vを含む文節を修飾するときに、「名詞nが<v,rel>と共起する」とする。
また、数式16において、logを使っているが、logを使わなくても良い。よって、数式16は、「P(<v,rel>|n)=(f(<v,rel,n>)+1)/(Σf(<v,rel,n>)+1)でも良い。
数式16において、「f(<v,rel,n>)」は、<v,rel,n>の出現頻度である。また、Dは、{<v,rel>|f(<v,rel,n>)>0}として定義されるセットである。また、「f(<v,rel,n>)=0」の場合、「P(<v,rel>|n)」は、「0」である。
また、単語クラス情報取得部113は、「EM-based clustering」というクラス分類方法により、名詞を分類しても良い。つまり、単語クラス情報取得部113は、以下の数式17で示される<v,rel,n>の組の出現確率を算出する。
数式17において、「a」は<v,rel>の組および「n」の隠れクラスを示す。数式17において、確率「P(<v,rel>|a)」、「P(n|a)」および「P(a)」が直接的に算出できない。隠れクラス「a」が与えられたコーパスから取得できないからである。
「EM-based clustering」は、与えられたコーパス(1以上の文章群)から、これらの確率(「P(<v,rel>|a)」、「P(n|a)」および「P(a)」)を推定する。「EM-based clustering」は「Eステップ」と「Mステップ」の2つのステップからなる。「Eステップ」において、確率「P(<v,rel>|a)」が算出される。「Mステップ」において、「Eステップ」における結果を用いて、最大尤度になるまで、「P(<v,rel>|a)」、「P(n|a)」および「P(a)」が更新される。
以上の処理により、各<v,rel>、n、およびaに対して、確率「P(<v,rel>|a)」、「P(n|a)」および「P(a)」が算出される。
そして、「P(a|n)」は、以下の数式18により算出される。
「P(a|n)」は、nのクラスを決定するために用いられる。例えば、最大の「P(a|n)」を有するクラスが、nが属するクラスである。類似する<v,rel>の組と共起する名詞句は、同じクラスに属する傾向がある。
また、本明細書で記載したクラス対に関して、以下のように絞り込むことは好適である。つまり、図示しない手段または上述したいずれかの構成要素(発明特定事項)により、文章群格納部101の文章群から、シードパターンと共起する単語対を取り出し、当該単語対が、予め決められた数(閾値は予め格納されている)以上存在するクラス対に限定する。そして、限定されたクラス対、または限定されたクラス対の単語対を用いて、上述した処理(単語対の取得処理や、クラス対良好度の算出や、パターンの類似度の算出や、スコアの算出など)が行われる。かかることにより、処理の高速化が図れる。
また、本明細書で記載した各種の数式は、技術的思想を反映する範囲で、多少の変形を加えても良いことは言うまでもない。
さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における情報処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、1以上の文章群を格納し、1以上の単語と当該1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し、2つのクラスの良さを示す指標であるクラス対良好度を格納し、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納しており、コンピュータを、前記記憶媒体に格納されている1以上のシードパターンのいずれかを取得し、前記記憶媒体に格納されている1以上の文章群から、前記取得したシードパターンと共起する1以上の単語対を取得する単語対取得部と、前記単語対取得部が取得した1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度を前記記憶媒体から取得するクラス対良好度取得部と、前記クラス対良好度取得部が取得したクラス対良好度を用いて、前記単語対取得部が取得した各単語対のスコアを決定するスコア決定部と、前記スコア決定部が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択部と、前記単語対選択部が取得した1以上の単語対を出力する単語対出力部として機能させるためのプログラム、である。
また、上記プログラムにおいて、コンピュータを、2つの各クラスに属する単語対が、前記文章群格納部の1以上の文章群の中で、前記1以上のシードパターンと共起する回数または割合が多いほどクラス対良好度が大きくなるようにクラス対良好度を算出するクラス対良好度算出部として、さらに機能させ、
前記クラス対良好度算出部が算出した2つのクラスのクラス対良好度は、記憶媒体に格納されているクラス対良好度であることは好適である。
また、上記プログラムにおいて、記憶媒体に、シードパターンではないパターンであり、前記所定の関係を有する2つの単語対を取得するために利用する1以上のパターン、および、前記1以上の各パターンと前記シードパターンとの類似度を、パターンごとにさらに格納し、前記単語対取得部は、前記記憶媒体に格納されている1以上のシードパターン、および前記記憶媒体に格納されている1以上のパターンのいずれかを取得し、前記記憶媒体に格納されている1以上の文章群から、前記シードパターンまたは前記パターンと共起する1以上の単語対を取得し、前記スコア決定部は、前記記憶媒体に格納されている前記1以上の各パターンと前記シードパターンとの類似度をも用いて、前記単語対取得部が取得した各単語対のスコアを決定するものとして、コンピュータを機能させるプログラムであることは好適である。
また、上記プログラムにおいて、コンピュータを、前記1以上のシードパターンと共起する単語対に対応するクラス対と、前記記憶媒体に格納されている1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、大きくなるように類似度を算出するパターン類似度算出部をさらに具備し、前記パターン類似度算出部が算出した類似度は、前記記憶媒体に格納されている類似度であることは好適である。
また、上記プログラムにおいて、記憶媒体に、1以上の各単語対と1以上の各パターンとの親和性に関する情報である親和性情報を、さらに格納し、前記スコア決定部は、前記記憶媒体の親和性情報をも用いて、前記単語対取得部が取得した各単語対のスコアを決定するものとして、コンピュータを機能させるプログラムであることは好適である。
また、上記プログラムにおいて、コンピュータを、前記単語対取得部が取得した1以上の単語対と、前記1以上の各パターンとが共起する回数または割合が多いほど、大きくなるように親和性情報を算出する親和性情報算出部としてさらに機能させ、前記記憶媒体の親和性情報は、前記親和性情報算出部が算出した親和性情報であることは好適である。
また、上記プログラムにおいて、前記スコア決定部は、前記クラス対良好度、前記シードパターンとパターンとの類似度、および前記親和性情報との積が最も大きいシードパターンまたはパターンにおけるスコアを、各単語対のスコアとして決定するものとして、コンピュータを機能させるプログラムであることは好適である。
また、上記プログラムにおいて、コンピュータを、前記記憶媒体に格納されている1以上の文章群の各文に対して、形態素解析および係り受け解析し、第一の名詞または名詞句を起点として、第二の名詞または名詞句を終点として、前記起点から前記終点までに至る形態素の繋がりをパターンとして取得し、または、前記起点からの形態素の繋がりと前記終点からの形態素の繋がりが結ばれる形態素までをパターンとして取得するパターン取得部としてさらに機能させ、前記記憶媒体のパターンは、前記パターン取得部が取得したパターンであることは好適である。
また、上記プログラムにおいて、記憶媒体に、最終的に出力しない単語対に対応するクラス対を識別する2つのクラス識別子である除外クラス対を1以上格納し、コンピュータを、前記1以上の除外クラス対に対応する単語対を出力する単語対から除外する単語対除外部としてさらに機能させることは好適である。
また、上記プログラムにおいて、記憶媒体に、前記1以上の文章群における、各クラスに属する単語の平均出現頻度と、クラス識別子とを対に有するクラス出現頻度情報を、クラス毎に格納し、コンピュータを、前記平均出現頻度が予め決められた閾値以上の差を有する2つのクラスのクラス識別子を除外クラス対として、前記除外クラス対格納部に蓄積する除外クラス対蓄積部としてさらに機能させることは好適である。
また、図16は、本明細書で述べたプログラムを実行して、上述した実施の形態の単語対取得装置1等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図16は、このコンピュータシステム340の概観図であり、図17は、コンピュータシステム340の内部構成を示す図である。
図16において、コンピュータシステム340は、FDドライブ3411、CD−ROMドライブ3412を含むコンピュータ341と、キーボード342と、マウス343と、モニタ344とを含む。
図17において、コンピュータ341は、FDドライブ3411、CD−ROMドライブ3412に加えて、MPU3413と、CD−ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM3415と、MPU3413に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
コンピュータシステム340に、上述した実施の形態の単語対取得装置1等の機能を実行させるプログラムは、CD−ROM3501、またはFD3502に記憶されて、CD−ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD−ROM3501、FD3502またはネットワークから直接、ロードされても良い。
プログラムは、コンピュータ341に、上述した実施の形態の単語対取得装置1等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。
また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
以上のように、本発明にかかる単語対取得装置は、所定の関係にある単語対を適切に取得できるという効果を有し、単語対取得装置等として有用である。
1 単語対取得装置
101 文章群格納部
102 単語対格納部
103 単語クラス情報格納部
104 シードパターン格納部
105 パターン格納部
106 クラス対良好度格納部
107 パターン類似度格納部
108 親和性情報格納部
109 除外クラス対格納部
110 クラス出現頻度情報格納部
111 単語対取得部
112 単語対蓄積部
113 単語クラス情報取得部
114 単語クラス情報蓄積部
115 パターン取得部
116 パターン蓄積部
117 クラス対良好度算出部
118 クラス対良好度蓄積部
119 パターン類似度算出部
120 パターン類似度蓄積部
121 親和性情報算出部
122 親和性情報蓄積部
123 クラス対良好度取得部
124 パターン類似度取得部
125 親和性情報取得部
126 スコア決定部
127 単語対選択部
128 単語対出力部
129 単語対除外部
130 除外クラス対蓄積部
131 クラス出現頻度情報算出部

Claims (13)

  1. 1以上の文章群を格納し得る文章群格納部と、
    1以上の単語と当該1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し得る単語クラス情報格納部と、
    2つのクラスの良さを示す指標であり、当該2つのクラスに属する単語対が、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンと良く共起する程度を示すクラス対良好度を格納し得るクラス対良好度格納部と、
    2つの単語である単語対を1以上格納し得る単語対格納部と、
    前記単語対格納部に格納されている1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度を前記クラス対良好度格納部から取得するクラス対良好度取得部と、
    前記クラス対良好度取得部が取得したクラス対良好度を用いて、前記単語対格納部の各単語対のスコアを決定するスコア決定部と、
    前記スコア決定部が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択部と、
    前記単語対選択部が取得した1以上の単語対を出力する単語対出力部とを具備する単語対取得装置。
  2. 所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納し得るシードパターン格納部と、
    2つの各クラスに属する単語対が、前記文章群格納部の1以上の文章群の中で、前記1以上のシードパターンと共起する回数または割合が多いほどクラス対良好度が大きくなるようにクラス対良好度を算出するクラス対良好度算出部とをさらに具備し、
    前記クラス対良好度算出部が算出した2つのクラスのクラス対良好度は、前記クラス対良好度格納部に格納されているクラス対良好度である請求項1記載の単語対取得装置。
  3. 所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンではないパターンであり、前記所定の関係を有する2つの単語対を取得するために利用するパターンを1以上格納し得るパターン格納部と、
    前記パターン格納部に格納されている1以上の各パターンと前記シードパターンとの類似度を、パターンごとに格納し得るパターン類似度格納部と、
    前記シードパターン格納部に格納されている1以上のシードパターン、および前記パターン格納部に格納されている1以上のパターンのいずれかを取得し、前記文章群格納部に格納されている1以上の文章群から、前記シードパターンまたは前記パターンと共起する1以上の単語対を取得する単語対取得部とをさらに具備し、
    前記スコア決定部は、
    前記パターン類似度格納部に格納されている前記1以上の各パターンと前記シードパターンとの類似度をパラメータとする増加関数を用いて、前記単語対取得部が取得した各単語対のスコアを決定する請求項1または請求項2記載の単語対取得装置。
  4. 前記1以上のシードパターンと共起する単語対に対応するクラス対と、前記パターン格納部に格納されている1以上の各パターンと共起する単語対に対応するクラス対との重なりが大きいほど、大きくなるように類似度を算出するパターン類似度算出部をさらに具備し、
    前記パターン類似度算出部が算出した類似度は、前記パターン類似度格納部に格納されている類似度である請求項3記載の単語対取得装置。
  5. 1以上の各単語対と1以上の各パターンとの親和性に関する情報であり、単語対とパターンと良く共起する程度を示す情報である親和性情報を格納し得る親和性情報格納部をさらに具備し、
    前記スコア決定部は、
    前記親和性情報格納部の親和性情報をもパラメータとする増加関数を用いて、前記単語対取得部が取得した各単語対のスコアを決定する請求項3または請求項4記載の単語対取得装置。
  6. 前記単語対取得部が取得した1以上の単語対と、前記1以上の各パターンとが共起する回数または割合が多いほど、大きくなるように親和性情報を算出する親和性情報算出部をさらに具備し、
    前記親和性情報格納部の親和性情報は、前記親和性情報算出部が算出した親和性情報である請求項5記載の単語対取得装置。
  7. 前記スコア決定部は、
    前記クラス対良好度、および前記シードパターンとパターンとの類似度、および前記親和性情報の積が最も大きいシードパターンまたはパターンにおけるスコアを、各単語対のスコアとして決定する請求項6記載の単語対取得装置。
  8. 前記文章群格納部に格納されている1以上の文章群の各文に対して、形態素解析および係り受け解析し、一番目に出現する第一の名詞または名詞句を起点として、二番目に出現する第二の名詞または名詞句を終点として、前記起点から前記終点までに至る形態素の繋がりをパターンとして取得し、または、前記起点からの形態素の繋がりと前記終点からの形態素の繋がりが結ばれる形態素までをパターンとして取得するパターン取得部をさらに具備し、
    前記パターン格納部のパターンは、前記パターン取得部が取得したパターンである請求項3から請求項7いずれか記載の単語対取得装置。
  9. 最終的に出力しない単語対に対応するクラス対を識別する2つのクラス識別子である除外クラス対を1以上格納し得る除外クラス対格納部と、
    前記1以上の除外クラス対に対応する単語対を出力する単語対から除外する単語対除外部とをさらに具備する請求項1から請求項8いずれか記載の単語対取得装置。
  10. 前記1以上の文章群における、各クラスに属する単語の平均出現頻度と、クラス識別子とを対に有するクラス出現頻度情報を、クラス毎に格納し得るクラス出現頻度情報格納部と、
    前記平均出現頻度が予め決められた閾値以上の差を有する2つのクラスのクラス識別子を除外クラス対として、前記除外クラス対格納部に蓄積する除外クラス対蓄積部とをさらに具備する請求項9記載の単語対取得装置。
  11. 前記文章群格納部の1以上の文章群を用いて、同一の動詞、または同一の動詞と助詞と共起する回数または割合が多い単語を同一のクラスに属するように、1以上の単語クラス情報を取得する単語クラス情報取得部をさらに具備し、
    前記単語クラス情報格納部の単語クラス情報は、前記単語クラス情報取得部が取得した単語クラス情報である請求項1から請求項10いずれか記載の単語対取得装置。
  12. 記憶媒体に、
    1以上の文章群を格納し、
    1以上の単語と当該1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し、
    2つのクラスの良さを示す指標であり、当該2つのクラスに属する単語対が、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンと良く共起する程度を示すクラス対良好度を格納し、
    所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納しており、
    単語対取得部、クラス対良好度取得部、スコア決定部、単語対選択部、および単語対出力部により実現される単語対取得方法であって、
    前記単語対取得部により、前記記憶媒体に格納されている1以上のシードパターンのいずれかを取得し、前記記憶媒体に格納されている1以上の文章群から、前記取得したシードパターンと共起する1以上の単語対を取得する単語対取得ステップと、
    前記クラス対良好度取得部により、前記単語対取得ステップで取得された1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度を前記記憶媒体から取得するクラス対良好度取得ステップと、
    前記スコア決定部により、前記クラス対良好度取得ステップで取得されたクラス対良好度を用いて、前記単語対取得ステップで取得された各単語対のスコアを決定するスコア決定ステップと、
    前記単語対選択部により、前記スコア決定ステップで決定されたスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択ステップと、
    前記単語対出力部により、前記単語対選択ステップで取得された1以上の単語対を出力する単語対出力ステップとを具備する単語対取得方法。
  13. 記憶媒体に、
    1以上の文章群を格納し、
    1以上の単語と当該1以上の単語が属するクラスを識別するクラス識別子とを対応づけて有する2以上の単語クラス情報を格納し、
    2つのクラスの良さを示す指標であり、当該2つのクラスに属する単語対が、所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンと良く共起する程度を示すクラス対良好度を格納し、
    所定の関係を有する2つの単語対を取得するために利用するパターンであるシードパターンを1以上格納しており、
    コンピュータを、
    前記記憶媒体に格納されている1以上のシードパターンのいずれかを取得し、前記記憶媒体に格納されている1以上の文章群から、前記取得したシードパターンと共起する1以上の単語対を取得する単語対取得部と、
    前記単語対取得部が取得した1以上の単語対が有する各単語が属する2つのクラスのクラス対良好度を前記記憶媒体から取得するクラス対良好度取得部と、
    前記クラス対良好度取得部が取得したクラス対良好度を用いて、前記単語対取得部が取得した各単語対のスコアを決定するスコア決定部と、
    前記スコア決定部が決定したスコアが予め決められた条件を満たすほど、スコアが高い1以上の単語対を取得する単語対選択部と、
    前記単語対選択部が取得した1以上の単語対を出力する単語対出力部として機能させるためのプログラム。
JP2009207944A 2009-09-09 2009-09-09 単語対取得装置、単語対取得方法、およびプログラム Active JP5382651B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009207944A JP5382651B2 (ja) 2009-09-09 2009-09-09 単語対取得装置、単語対取得方法、およびプログラム
CN201080040033.9A CN102576358B (zh) 2009-09-09 2010-09-07 单词对取得装置、单词对取得方法及其程序
US13/394,893 US9037586B2 (en) 2009-09-09 2010-09-07 Word pair acquisition apparatus, word pair acquisition method, and program
PCT/JP2010/065308 WO2011030752A1 (ja) 2009-09-09 2010-09-07 単語対取得装置、単語対取得方法、およびプログラム
EP10815349.5A EP2477125A4 (en) 2009-09-09 2010-09-07 WORDS PAIR ACQUISITION DEVICE, WORDS PAIR ACQUISITION METHOD, AND PROGRAM
KR1020127006123A KR101715432B1 (ko) 2009-09-09 2010-09-07 단어쌍취득장치, 단어쌍취득방법 및 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009207944A JP5382651B2 (ja) 2009-09-09 2009-09-09 単語対取得装置、単語対取得方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2011059917A JP2011059917A (ja) 2011-03-24
JP5382651B2 true JP5382651B2 (ja) 2014-01-08

Family

ID=43732424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009207944A Active JP5382651B2 (ja) 2009-09-09 2009-09-09 単語対取得装置、単語対取得方法、およびプログラム

Country Status (6)

Country Link
US (1) US9037586B2 (ja)
EP (1) EP2477125A4 (ja)
JP (1) JP5382651B2 (ja)
KR (1) KR101715432B1 (ja)
CN (1) CN102576358B (ja)
WO (1) WO2011030752A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8510308B1 (en) * 2009-06-16 2013-08-13 Google Inc. Extracting semantic classes and instances from text
JP5594225B2 (ja) * 2011-05-17 2014-09-24 富士通株式会社 知識獲得装置、知識取得方法、及びプログラム
JP5254402B2 (ja) * 2011-06-07 2013-08-07 株式会社東芝 注目評価対象抽出装置及びプログラム
US8832655B2 (en) 2011-09-29 2014-09-09 Accenture Global Services Limited Systems and methods for finding project-related information by clustering applications into related concept categories
JP5491478B2 (ja) * 2011-10-24 2014-05-14 ヤフー株式会社 検索クエリ関連単語出力装置、検索クエリ関連単語出力方法および検索補助システム
JP5597653B2 (ja) * 2012-01-05 2014-10-01 日本電信電話株式会社 単語抽出装置及び方法及びプログラム
US9037452B2 (en) * 2012-03-16 2015-05-19 Afrl/Rij Relation topic construction and its application in semantic relation extraction
US10120859B2 (en) 2013-12-16 2018-11-06 Fairwords, Inc. Message sentiment analyzer and message preclusion
US10305831B2 (en) * 2013-12-16 2019-05-28 Fairwords, Inc. Compliance mechanism for messaging
US10289678B2 (en) 2013-12-16 2019-05-14 Fairwords, Inc. Semantic analyzer for training a policy engine
US11501068B2 (en) 2013-12-16 2022-11-15 Fairwords, Inc. Message sentiment analyzer and feedback
JP6403382B2 (ja) * 2013-12-20 2018-10-10 国立研究開発法人情報通信研究機構 フレーズペア収集装置、及びそのためのコンピュータプログラム
JP5907393B2 (ja) 2013-12-20 2016-04-26 国立研究開発法人情報通信研究機構 複雑述語テンプレート収集装置、及びそのためのコンピュータプログラム
JP5904559B2 (ja) 2013-12-20 2016-04-13 国立研究開発法人情報通信研究機構 シナリオ生成装置、及びそのためのコンピュータプログラム
US10007935B2 (en) * 2014-02-28 2018-06-26 Rakuten, Inc. Information processing system, information processing method, and information processing program
JP6410455B2 (ja) * 2014-04-04 2018-10-24 日本放送協会 意味関係抽出装置およびプログラム
US20170109439A1 (en) * 2014-06-03 2017-04-20 Hewlett-Packard Development Company, L.P. Document classification based on multiple meta-algorithmic patterns
US9678947B2 (en) 2014-11-21 2017-06-13 International Business Machines Corporation Pattern identification and correction of document misinterpretations in a natural language processing system
EP3230900A4 (en) * 2014-12-12 2018-05-16 EntIT Software LLC Scalable web data extraction
US10409910B2 (en) * 2014-12-12 2019-09-10 Omni Ai, Inc. Perceptual associative memory for a neuro-linguistic behavior recognition system
US10409909B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
JP6437892B2 (ja) * 2015-07-13 2018-12-12 日本電信電話株式会社 ソフトウェア解析システム、ソフトウェア解析方法およびソフトウェア解析プログラム
US10062084B2 (en) 2015-10-21 2018-08-28 International Business Machines Corporation Using ontological distance to measure unexpectedness of correlation
JP2017174009A (ja) * 2016-03-22 2017-09-28 日本電気株式会社 事態間知識抽出装置、事態間知識抽出方法、及びプログラム
EP3449473A4 (en) * 2016-04-26 2019-10-23 Ponddy Education Inc. COMPUTER-BASED LEARNING SYSTEM BASED ON AFFINITY KNOWLEDGE
US11023475B2 (en) 2016-07-22 2021-06-01 International Business Machines Corporation Testing pairings to determine whether they are publically known
JP6721179B2 (ja) * 2016-10-05 2020-07-08 国立研究開発法人情報通信研究機構 因果関係認識装置及びそのためのコンピュータプログラム
KR20180089183A (ko) 2017-01-31 2018-08-08 동국대학교 산학협력단 뇌파를 이용한 게임 장치 및 방법
US11507744B2 (en) * 2017-11-10 2022-11-22 Nec Corporation Information processing apparatus, information processing method, and computer-readable recording medium
US11586655B2 (en) * 2017-12-19 2023-02-21 Visa International Service Association Hyper-graph learner for natural language comprehension

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267345A (en) * 1992-02-10 1993-11-30 International Business Machines Corporation Speech recognition apparatus which predicts word classes from context and words from word classes
JPH0689302A (ja) * 1992-09-08 1994-03-29 Hitachi Ltd 辞書メモリ
US5787422A (en) * 1996-01-11 1998-07-28 Xerox Corporation Method and apparatus for information accesss employing overlapping clusters
US6236987B1 (en) * 1998-04-03 2001-05-22 Damon Horowitz Dynamic content organization in information retrieval systems
JP3636941B2 (ja) * 1999-07-19 2005-04-06 松下電器産業株式会社 情報検索方法と情報検索装置
JP2003256447A (ja) * 2002-02-26 2003-09-12 Kyoji Umemura 関連語抽出方法および装置
JP4803709B2 (ja) * 2005-07-12 2011-10-26 独立行政法人情報通信研究機構 単語用法差異情報取得プログラム及び同装置
CN1916889B (zh) * 2005-08-19 2011-02-02 株式会社日立制作所 语料库制作装置及其方法
DE102005051617B4 (de) * 2005-10-27 2009-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatisches, computerbasiertes Ähnlichkeitsberechnungssystem zur Quantifizierung der Ähnlichkeit von Textausdrücken
US20080208566A1 (en) * 2007-02-23 2008-08-28 Microsoft Corporation Automated word-form transformation and part of speech tag assignment
WO2009000103A1 (en) * 2007-06-25 2008-12-31 Google Inc. Word probability determination
US8280886B2 (en) * 2008-02-13 2012-10-02 Fujitsu Limited Determining candidate terms related to terms of a query
JP5184195B2 (ja) * 2008-04-24 2013-04-17 日本放送協会 言語処理装置およびプログラム

Also Published As

Publication number Publication date
CN102576358B (zh) 2014-10-15
WO2011030752A1 (ja) 2011-03-17
US9037586B2 (en) 2015-05-19
KR101715432B1 (ko) 2017-03-22
CN102576358A (zh) 2012-07-11
EP2477125A1 (en) 2012-07-18
US20120179682A1 (en) 2012-07-12
EP2477125A4 (en) 2016-09-21
JP2011059917A (ja) 2011-03-24
KR20130038179A (ko) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5382651B2 (ja) 単語対取得装置、単語対取得方法、およびプログラム
JP5284990B2 (ja) キーワードの時系列解析のための処理方法、並びにその処理システム及びコンピュータ・プログラム
US8407253B2 (en) Apparatus and method for knowledge graph stabilization
US8606795B2 (en) Frequency based keyword extraction method and system using a statistical measure
US9251248B2 (en) Using context to extract entities from a document collection
RU2618374C1 (ru) Выявление словосочетаний в текстах на естественном языке
US9965460B1 (en) Keyword extraction for relationship maps
JP5710581B2 (ja) 質問応答装置、方法、及びプログラム
Bin Abdur Rakib et al. Using the reddit corpus for cyberbully detection
CN111090731A (zh) 基于主题聚类的电力舆情摘要提取优化方法及系统
JP2011118689A (ja) 検索方法及びシステム
KR102334236B1 (ko) 음성 변환 Text Data에서 의미있는 키워드 추출 방법과 활용
US10176256B1 (en) Title rating and improvement process and system
KR102376489B1 (ko) 단어 랭킹 기반의 텍스트 문서 군집 및 주제 생성 장치 및 그 방법
JP4979637B2 (ja) 複合語の区切り位置を推定する複合語区切り推定装置、方法、およびプログラム
Roy et al. An unsupervised normalization algorithm for noisy text: a case study for information retrieval and stance detection
Husain et al. A language Independent Approach to develop Urdu stemmer
JP6106489B2 (ja) 語義解析装置、及びプログラム
JP2009104296A (ja) 関連キーワード抽出方法及び装置及びプログラム及びコンピュータ読取可能な記録媒体
JP2018077604A (ja) 機能記述からの実現手段・方法の侵害候補を自動特定する人工知能装置
Büchler et al. Scaling historical text re-use
JP4934115B2 (ja) キーワード抽出装置、方法及びプログラム
Oevermann et al. Semantically Weighted Similarity Analysis for XML-based Content Components
JP5761033B2 (ja) 文書分析装置、文書分析方法、およびプログラム
JP2008293070A (ja) 文書解析システム、および文書解析方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130924

R150 Certificate of patent or registration of utility model

Ref document number: 5382651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250