JP2001243223A - 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体 - Google Patents

意味ネットワーク自動作成装置及びコンピュータ可読記録媒体

Info

Publication number
JP2001243223A
JP2001243223A JP2000057971A JP2000057971A JP2001243223A JP 2001243223 A JP2001243223 A JP 2001243223A JP 2000057971 A JP2000057971 A JP 2000057971A JP 2000057971 A JP2000057971 A JP 2000057971A JP 2001243223 A JP2001243223 A JP 2001243223A
Authority
JP
Japan
Prior art keywords
word
concept
node
semantic network
texts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000057971A
Other languages
English (en)
Other versions
JP3428554B2 (ja
Inventor
Ko Ri
航 李
Kenji Yamanishi
健司 山西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2000057971A priority Critical patent/JP3428554B2/ja
Publication of JP2001243223A publication Critical patent/JP2001243223A/ja
Application granted granted Critical
Publication of JP3428554B2 publication Critical patent/JP3428554B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】 大量のテキストデータに基づき、単語と単語
の想起関係を有向グラフで表現した意味ネットワークを
自動的に作成する。 【解決手段】 統計部2は、複数のテキストを入力して
形態素解析を行い、単語と単語の共起頻度、単語の出現
頻度、全テキスト数を統計する。次に、計算部3は、統
計部2から単語と単語の共起頻度等を入力し、任意の単
語から任意の他の単語への想起の強さを情報量尺度を用
いて計算する。このとき、単語Aから他の単語Bへの想
起の強さは、単語Aが出現するテキスト群における単語
Bの出現、非出現にかかる統計量および単語Aが出現し
ないテキスト群における単語Bの出現、非出現にかかる
統計量を考慮して計算する。次に、作成部4は、計算部
3から単語と単語の想起の強さを入力し、入力された想
起の強さが予め定めた閾値以上の単語から単語へ有向の
リンクを付けることによって意味ネットワークを作成
し、記憶部1に出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、インターネット、
電子図書館、自然言語処理システム、音声処理システ
ム、画像処理システム、知的推論システムなどにおける
知識獲得、知識処理に利用される意味ネットワークを自
動的に作成する装置に関する。
【0002】
【従来の技術】多くの知識処理システムでは、知識を意
味ネットワーク(或いは、概念ネットワーク、連想ネッ
トワーク)と呼ばれる表現形で表現している。意味ネッ
トワークとは単語と単語(或いは、概念と概念)の想起
関係を有向グラフで表すものである(岩波情報科学辞
典、長尾真など編集、岩波書店、1990年)。グラフにお
けるノードが単語、或いは概念を表し、ノードの間のリ
ンクが単語間、あるいは概念間の想起関係を表す。図1
5が示すのは意味ネットワークの例である。このネット
ワークでは、ノードは、例えば、「car 」、「truck 」
等の単語を表す。また、ノード間のリンクは、例えば、
「car 」から「truck 」への想起が強いこと等を表す。
想起は双方向のものもある。例えば、「car 」と「aut
o」の間には双方向のリンクが存在し、両者が互いに想
起しやすいことを表す。
【0003】意味ネットワークはまた、インターネッ
ト、或いは電子図書館における検索に利用することがで
きる。たとえば、ユーザがインターネットで「車に関す
るホームページ」を検索したいとする。もし、「car 」
というキーワードだけで検索すると、「car 」という単
語の入っているホームページだけが収集され、ユーザが
欲しがる情報のすべて(或いは、多く)を見つけ出すこ
とができない。しかし、意味ネットワークを用いれば、
車に関係する情報をより多く見つけ出すことができる。
具体的には、意味ネットワーク上にある「car 」からリ
ンクされた単語、つまり想起関係の強い単語を探し、た
とえば、「auto」、「motor 」、「vehicle 」、「truc
k 」、「Toyota」等の単語が見つかった場合、それらの
単語を全部キーワードとし、ホームページを検索するこ
とができる。
【0004】意味ネットワークはまた、自然言語処理シ
ステム、音声認識システム、画像処理システムなどにお
ける曖昧性解消に利用することができる。たとえば、OC
R 文字認識システムでは、画像データを文字データに変
換する際、読み込んだ単語が「人口」なのか、「入口」
なのかを判断する必要がある。同じ文に「出生」や「統
計」等が現われれば、これを「人口」と判断できるだろ
うし、「出口」や「通過」等が現われれば、これを「入
口」と判断できるだろう。このような「人口」と「出
生」が強く関わるという知識を意味ネットワークで表現
し、曖昧性解消に利用することができる。
【0005】意味ネットワークは更に、知的推論システ
ムにおける推論に利用することができる。たとえば、意
味ネットワークを用いて、なぜ「風が吹けば、桶屋が儲
かる」かを推理することができる。具体的には、意味ネ
ットワークにおける「風」ノードとつながっているノー
ドを見つけ出し、たとえば、「風→砂埃→盲人→三味線
→…→桶屋」というパス、つまり、複数のつながったノ
ードの列が見つかれば、「風が吹けば、桶屋が儲かる」
理由を推理することができる。また、「風」と「桶屋」
の間のあらゆる可能なパスを見つけ出すことによって
「風が吹けば、桶屋が儲かる」のすべての理由を発見す
ることができる。
【0006】また、ベイジアンネットワークと呼ばれる
知識表現も提案されている。ベイジアンネットワークは
同時確率分布における確率変数の依存関係を有向グラフ
で表すものである(Judea Pearl, Probabilistic Reaso
ning in Intelligent Systems: Networks of Plausible
Inference. Morgan Kaufman Publishers Inc., SanMat
eo, California, 1988.)。ベイジアンネットワークも
意味ネットワークとみなすことができる。しかし、一般
的な意味ネットワークではループがあってもよいが、ベ
イジアンネットワークでは、ループがあってはならな
い。つまり、ベイジアンネットワークは限定された意味
ネットワークである。
【0007】一方、情報理論や数理統計の分野では、
「情報量尺度」と呼ばれる幾つかの量が提案されてい
る。たとえば、「確率的コンプレキシティ」という尺度
がリサネンによって提案された(Jorma Rissanen, Fishe
r Information and Stochastic Complexity, IEEE Tran
sactions on Information Theory, Vol.42., No. 1, p
p.40-47, 1996) 。確率的コンプレキシティは与えられ
たデータに含まれる、ある確率モデルに対する情報の量
を表す尺度である。「記述長最小の原理」と呼ばれるも
のもリサネンによって提案され、データの確率的コンプ
レキシティのもっとも小さいモデルがそのデータを生起
した確率分布にもっとも近く、統計的推定ではそのモデ
ルを選択すべきであると主張する。確率的コンプレキシ
ティは確率モデルによるデータを記述するための最短符
号長(或いは、記述長)としても解釈できる。また、た
とえば、「拡張型確率的コンプレキシティ」という尺度
が山西によって提案された(Kenji Yamanishi, A Decisi
on-Theoretic Extension of Stochastic Complexity an
d Its Applications to Learning, IEEE Transactions
onInformation Theory, Vol.44, No.4, pp. 1424-1439,
1998) 。拡張型確率的コンプレキシティは、やはり与
えられたデータに含まれる、あるモデルに対する量であ
るが、モデルが確率分布だけでなく任意の実数値関数の
パラメトリッククラスであってもよい、かつ損失関数が
対数損失だけでなく任意の歪み関数であってもよいとい
う意味で確率的コンプレキシティの拡張になる。この他
に、「赤池の情報量尺度」(Hirotugu Akaike, A New Lo
ok at the Statistical Model Identification, IEEE T
ransactions on Automatic Control, Vol.AC-19, No.
6, pp.716-723, 1974)、「エントロピー」( 岩波情報科
学辞典、長尾真など編集、岩波書店、1990年) などの情
報量尺度がある。
【0008】また、従来では、確率的コンプレキシテ
ィ、つまり、記述長最小の原理を用いてベイジアンネッ
トワークを学習する方法が考え出された(例えば、鈴木
譲、大嶽康隆、平沢茂一、記述長最小基準と状態分割の
立場からみた確率モデルの選択方法について、情報処理
学会論文、Vol.33, No.11, pp. 1281-1289, 1992) 。
【0009】更に、特開平11−96177 号公報には、単語
の種々の関係を認定できるオントロジを動的に生成し
て、広い対象領域にわたる大量の文書に対しても文書の
処理に必要とされる情報を充分に含む用語辞書を生成す
るという、一種の意味ネットワーク自動生成技術が開示
されている。具体的には、文書を形態素解析して得られ
る個々の単語毎に、その出現の重要度を示す1次統計量
(例えば、全ての文書に含まれる単語の全数に対する個
々の単語の出現回数の比)を求め、1次統計量の大きい
幾つかの単語を関連単語として選択する。次に、この選
択した関連単語の各々をノードとし、対象領域を代表的
に表す単語のノードから前記関連単語の各々のノードに
対してそれぞれ有向リンクを張ったグラフを初期生成す
る。次に、この生成されたグラフのノードの全ての2つ
のノードの組み合わせについて、各組み合わせの2つの
単語の同時出現についての統計量である共起統計量を計
算する。ここで、共起統計量は、その2つの単語が出現
する文書(或いは段落、文)の延べ数に対する当該2つ
の単語が同時に出現する文書(或いは段落、文)の延べ
数の割合として計算される。そして、計算した共起統計
量に基づいて前記グラフを変換し、リンクに関係ラベル
を付与して用語辞書を生成する。
【0010】
【発明が解決しようとする課題】意味ネットワークは広
く利用可能な知識であるが、従来ではその構築、作成を
人手に頼っていた。それには少なくとも二つの問題点が
ある。一つの問題は意味ネットワークの規模が通常極め
て大きいので、その作成のコストが多大なことである。
もう一つの問題は人間が定義した知識にはどうしても恣
意性が多く含まれることである。
【0011】また、確率的コンプレキシティを用いて、
ベイジアンネットワークを学習する方法が提案された
が、「ループがあってはならない」という限定された意
味ネットワークしか作成できなかった。
【0012】さらに、特開平11−96177 号公報に記載す
る技術では、対象領域を代表的に表す単語のノードから
関連単語の各々のノードに対してそれぞれ有向リンクを
張ったグラフを初期生成し、計算した共起統計量に基づ
いて前記グラフを変換してリンクに関係ラベルを付与し
ていくため、代表単語をルートノードとする木構造のネ
ットワークという限定された意味ネットワークしか作成
できない。つまり、ベイジアンネットワークを学習する
方法と同様に、ループを持つ意味ネットワークは構築で
きない。また、2つの単語A,Bが出現する文書(或い
は段落、文)の延べ数に対する当該2つの単語A,Bが
同時に出現する文書(或いは段落、文)の延べ数の割合
を示す共起統計量は、単語Aについても、単語Bについ
ても同じ値になる。特開平11−96177 号公報ではこのよ
うな共起統計量に基づいてグラフ変換を行うため、単語
Aから単語Bへの有向リンクの可否と単語Bから単語A
への有向リンクの可否を、統計的な共起の度合いに基づ
いてそれぞれ独立に決定することはできない。
【0013】本発明の目的は、複数のテキストを統計処
理して意味ネットワークを自動的に作成する意味ネット
ワーク自動作成装置を提供することにある。
【0014】本発明の別の目的は、ループを持つ意味ネ
ットワークも作成することができる意味ネットワーク自
動作成装置を提供することにある。
【0015】本発明の他の目的は、或るノードから別の
ノードへの有向リンクおよびその逆方向の有向リンクを
統計的な共起の度合いに基づいてそれぞれ独立に作成す
る意味ネットワーク自動作成装置を提供することにあ
る。
【0016】
【課題を解決するための手段】第1の発明にかかる意味
ネットワーク自動作成装置は、単語からなる意味ネット
ワークを記憶する記憶部と、複数のテキストを入力し、
入力されたテキストに対して形態素解析を行い、形態素
解析を行ったテキストから、単語と単語の共起頻度、単
語の出現頻度、全テキスト数を統計する統計部と、前記
統計部から単語と単語の共起頻度、単語の出現頻度、全
テキスト数を入力し、入力された単語と単語の共起頻
度、単語の出現頻度、全テキスト数を基に、各単語に対
して、その単語から他の単語への想起の強さを情報量尺
度を用いて計算する計算部と、一つの単語を一つのノー
ドとして表現し、表現された各々のノードに対して、そ
のノードの単語から他のノードの単語への想起の強さを
前記計算部から参照し、参照された想起の強さが予め定
められた閾値以上の場合、そのノードから他のノードへ
有向リンクを張り、有向リンクが張られた有向グラフを
単語からなる意味ネットワークとして前記記憶部に出力
する作成部とを備えることを特徴とする。
【0017】ここで、本発明の好ましい実施形態におい
ては、前記計算部は、各単語に対して、その単語から他
の単語への想起の強さを、その単語が出現するテキスト
群における他の単語の出現、非出現にかかる統計量およ
びその単語が出現しないテキスト群における他の単語の
出現、非出現にかかる統計量を考慮して、計算する。よ
り具体的には、前記計算部は、情報量尺度として確率的
コンプレキシティを用いると共に一つのテキストを一つ
のデータと見なし、任意の第1の単語から任意の第2の
単語への想起の強さを、テキストにおいて第2の単語が
出現したかどうかに着目した場合のデータの確率的コン
プレキシティと、第1の単語が出現するテキスト群にお
いて第2の単語が出現したかどうかに着目した場合のデ
ータの確率的コンプレキシティおよび第1の単語が出現
しないテキスト群において第2の単語が出現したかどう
かに着目した場合のデータの確率的コンプレキシティの
和との差分として計算する。
【0018】第2の発明にかかる意味ネットワーク自動
作成装置は、概念からなる意味ネットワークを記憶する
記憶部と、複数のテキストを入力し、入力されたテキス
トに対して形態素解析を行い、形態素解析を行ったテキ
ストに対して語義曖昧性解消を行い、語義曖昧性解消を
行ったテキストから概念と概念の共起頻度、概念の出現
頻度、全テキスト数を統計する統計部と、前記統計部か
ら概念と概念の共起頻度、概念の出現頻度、全テキスト
数を入力し、入力された概念と概念の共起頻度、概念の
出現頻度、全テキスト数を基に、各概念に対して、その
概念から他の概念への想起の強さを情報量尺度を用いて
計算する計算部と、一つの概念を一つのノードとして表
現し、表現された各々のノードに対して、そのノードの
概念から他のノードの概念への想起の強さを前記計算部
から参照し、参照された想起の強さが予め定められた閾
値以上の場合、そのノードから他のノードへ有向リンク
を張り、有向リンクが張られた有向グラフを概念からな
る意味ネットワークとして前記記憶部に出力する作成部
とを備えることを特徴とする。
【0019】ここで、本発明の好ましい実施形態におい
ては、前記計算部は、各概念に対して、その概念から他
の概念への想起の強さを、その概念が出現するテキスト
群における他の概念の出現、非出現にかかる統計量およ
びその概念が出現しないテキスト群における他の概念の
出現、非出現にかかる統計量を考慮して、計算する。具
体的には、前記計算部は、情報量尺度として確率的コン
プレキシティを用いると共に一つのテキストを一つのデ
ータと見なし、任意の第1の概念から任意の第2の概念
への想起の強さを、テキストにおいて第2の概念が出現
したかどうかに着目した場合のデータの確率的コンプレ
キシティと、第1の概念が出現するテキスト群において
第2の概念が出現したかどうかに着目した場合のデータ
の確率的コンプレキシティおよび第1の概念が出現しな
いテキスト群において第2の概念が出現したかどうかに
着目した場合のデータの確率的コンプレキシティの和と
の差分として計算する。
【0020】第3の発明にかかる意味ネットワーク自動
作成装置は、第1または第2の発明の構成に加えて更
に、ユーザから意味ネットワークにおけるノードの指定
を受けるインタフェース部と、前記インタフェース部か
らユーザに指定されたノードを入力し、また、記憶部か
ら意味ネットワークを入力し、入力された意味ネットワ
ークにおけるユーザに指定されたノードを含む部分意味
ネットワークを見つけ出す探索部と、前記探索部から部
分意味ネットワークを入力し、入力された部分意味ネッ
トワークを表示する表示部とを備えることを特徴とす
る。
【0021】このように構成された本発明の意味ネット
ワーク自動作成装置にあっては、自然言語のテキストか
ら単語と単語(或いは、概念と概念)の共起頻度を統計
し、情報量尺度を用いて単語と単語(或いは、概念と概
念)の間の統計的な共起の強さを計算し、これを単語と
単語(或は、概念と概念) の想起の強さとし、それを用
いて意味ネットワークを自動的に構築する。
【0022】意味ネットワークを自動的に構築するの
で、その作成に必要な工数を大幅に削減することができ
る。また、データを基に理論的な基礎のしっかりした尺
度で単語と単語(概念と概念)の間の想起の強さを計算
し、意味ネットワークを作成しているので、客観的に意
味ネットワークを構築することができる。
【0023】また、情報量尺度を用いて単語間の想起の
強さを基に意味ネットワークを作成するので、ループを
もつ意味ネットワークも作成することができる。つま
り、従来のベイジアンネットワークの学習法より一般的
な意味ネットワークを作成することができる。
【0024】更に、或る単語から別の単語(或る概念か
ら別の概念)への想起の強さを、その単語(概念)が出
現するテキスト群における他の単語(概念)の出現、非
出現にかかる統計量およびその単語(概念)が出現しな
いテキスト群における他の単語(概念)の出現、非出現
にかかる統計量を考慮して計算するため、或るノードか
ら別のノードへの有向リンクおよびその逆方向の有向リ
ンクを統計的な共起の度合いに基づいてそれぞれ独立に
作成することができる。
【0025】
【発明の実施の形態】本発明の意味ネットワーク自動作
成装置の第一の実施例について説明する。図1はその構
成を示し、図2はその処理の流れを示す。この意味ネッ
トワーク自動作成装置10は、記憶部1、統計部2、計
算部3、作成部4から構成される。
【0026】統計部2は、図示しないキーボード等の入
力装置やフロッピィディスク装置等の記憶装置から複数
のテキストを入力し(ステップS1)、それらのテキス
トに対して形態素解析を行い(ステップS2)、さら
に、それらのテキストから単語と単語の共起頻度、単語
の出現頻度、全テキスト数を統計する(ステップS
3)。ここで、テキストは日本語や英語などの自然言語
で記述されたテキストを意味する。一つのテキストは、
例えば一文書、文書中の一段落、段落中の一文などであ
る。また、単語と単語の共起頻度とは、単語と単語が共
に出現したテキスト数のことである。また、単語の出現
頻度とは単語の出現したテキスト数のことである。
【0027】次に計算部3は、統計部2から単語と単語
の共起頻度、単語の出現頻度、全テキスト数を入力し、
それらのデータを基に、単語と単語の統計的な共起の強
さを情報量尺度を用いて計算し、単語と単語との想起の
強さとする(ステップS4)。単語間の想起の強さは一
般的に非対称なものである。具体的には、単語Aから単
語Bへの想起の強さは、単語Bから単語Aへの想起の強
さとは通常異る。
【0028】次に作成部4は、各単語をそれぞれノード
として表現し、また各ノードに対して、そのノードの単
語から他のノードの単語への想起の強さを計算部3から
参照し、想起の強さが予め定められた閾値以上の場合、
そのノードから他のノードへ有向リンクを張る(ステッ
プS5)。こうして作成した有向グラフを意味ネットワ
ークとして記憶部1に出力する(ステップS6)。
【0029】以下、各部分をより詳しく説明する。
【0030】統計部2は、日本語、或は英語等で書かれ
た複数のテキストを入力とする。図3に、入力となる日
本語のテキストの一例を示す。図4は、図3のテキスト
に対して形態素解析を行った結果の例を示す。つまり、
日本語では、形態素解析によってテキストが単語に分割
される。図5に、入力となる英語のテキストの一例を示
す。図6は、図5のテキストに対して形態素解析を行っ
た結果の例を示す。つまり、英語では、形態素解析によ
って単語が原型へ変換される。
【0031】統計部2は、形態素解析済みテキストを、
単語の集合とみなす。統計部2は、この形態素解析済み
テキストを統計処理して、単語と単語の共起頻度、単語
の出現頻度、全テキスト数を求める。図7に統計部2の
処理の例を示す。図7(a)は形態素解析済みテキスト
の例を示し、text1からtext10まで全部で1
0テキストある。text1〜text10の文字の横
に列挙したword1等はそのテキストに含まれる単語
であり、word1からword5までの5種類ある。
この場合、統計部2は、全テキスト数として10を求め
る。また、f(w)が単語wの出現頻度を表すとする
と、各単語につき図7(b)に示すような出現頻度を求
める。更に、f(x,y)が単語xと単語yの共起頻度
を表すとすると、図7(c)に示すような共起頻度を求
める。
【0032】計算部3は、統計部2から単語と単語の共
起頻度、単語の出現頻度、全テキスト数を入力する。次
に、各単語sに対して、その単語sから他の単語wへの
想起の強さを計算する。計算する場合、情報量尺度を用
いる。
【0033】例として、情報量尺度として確率的コンプ
レキシティを用いる場合について、単語sから単語wへ
の想起の強さの計算方法を説明する。計算に必要なの
は、単語sと単語wの共起頻度f(s,w)、単語sの
出現頻度f(s)、単語wの出現頻度f(w)、テキス
ト数nである。
【0034】計算部3は、一つのテキストを一つのデー
タと見なす。まず、テキストにおいて単語wが出現した
かどうかに着目した場合のデータの確率的コンプレキシ
ティを計算する。これをデータの独立モデルに対する確
率的コンプレキシティという。具体的には次式で与えら
れる。 nH(w)+(1/2)log(n/2π)+logπ …(式1) ここで、 H(w)=−P(w)logP(w)−P(¬w)logP(¬w) …(式2) P(w)=f(w)/n …(式3) P(¬w)=1−P(w) …(式4) 但し、対数の底は2であるとし、0log0=0とする
(以下同様)。πは3.1416である。
【0035】次に、テキストを単語sの出現したものと
単語sの出現しなかったものの二つのグループに分け
る。分かれたそれぞれのグループにおいて、単語wの出
現したかどうかに着目した場合のデータの確率的コンプ
レキシティを計算し、さらにその両者の和を計算する。
これをデータの依存モデルに対する確率的コンプレキシ
ティという。具体的には次式で与えられる。 [f(s)H(w|s)+(1/2)log{f(s)/2π}+logπ] +[(n−f(s))H(w|¬s) +(1/2)log{(n−f(s))/2π}+logπ] …(式5) ここで、 H(w|s)=−P(w|s)logP(w|s) −P(¬w|s)logP(¬w|s) …(式6) P(w|s)=f(w,s)/f(s) …(式7) P(¬w|s)=1−P(w|s) …(式8) H(w|¬s)=−P(w|¬s)logP(w|¬s) −P(¬w|¬s)logP(¬w|¬s) …(式9) P(w|¬s)=f(w,¬s)/f(¬s) ={f(w)−f(w,s)}/{n−f(s)} …(式10) p(¬w|¬s)=1−P(w|¬s) …(式11)
【0036】次に、独立モデルに対する確率的コンプレ
キシティと依存モデルに対する確率的コンプレキシティ
の差分を計算する。この確率的コンプレキシティの差分
が大きければ大きいほど、単語sから単語wへの統計的
な共起の度合いが強いと言える。特に、P(w|s)>
P(w)時は、正の共起、P(w|s)<P(w)時
は、負の共起が存在することが言える。実際は、次式に
示すように、確率的コンプレキシティの差分をさらに全
テキスト数で割ったものを使う。 S(s→w)=(1/n)[(式1)−(式5)] …(式12) なお、 P(s)=f(s)/n …(式13) P(¬s)=1−P(s) …(式14) として、式12を整理すると、次式のようになる。 S(s→w) =H(w)−P(s)H(w|s)−P(¬s)H(w|¬s) −(1/2n)log[{f(s)(n−f(s))π}/2n] …(式15)
【0037】ここで、注意しなければならないのは、単
語sからの単語wへの想起の強さが単語wからの単語s
への想起の強さと通常異る点である。つまり、単語間の
想起の強さが非対称的である。これは、たとえば、単語
「黒澤」から「侍」への想起は強いであろうが、逆に
「侍」から「黒澤」への想起は必ずしも強くないような
ことに対応する。図7の例における単語word1から
単語word2への想起の強さの計算例を図8に、単語
word2から単語word1への想起の強さの計算例
を図9にそれぞれ示す。このように、単語word1か
ら単語word2への想起の強さ(0.379)が単語
word2から単語word1への想起の強さ(0.3
60)より大きくなるのは、図7の例における、wor
d1が現れればword2が必ず現れているのに対し、
word2が現れればword1が必ずしも現れていな
い現象に基づくものである。
【0038】次に作成部4および記憶部1について説明
する。作成部4は、単語をノードと表現する。また作成
部4は、計算部3から、単語から単語への想起の強さを
参照しながら、想起の強さの大きい単語のノードの間に
リンクを張る。具体的には、たとえば、単語sから単語
wへの想起の強さが閾値より大きければ、単語sのノー
ドから単語wのノードへ有向のリンクを張る。このよう
に、すべての単語に対してリンク張る操作を繰り返し、
意味ネットワークを構築する。記憶部1は、このように
して作成された意味ネットワークを記憶する。
【0039】図10に作成部4の処理例を示す。まず、
全単語リストを用意し(ステップS11)、これをリス
トWL1に入れる(ステップS12)。次に、リストW
L1の先頭の単語w1を取り出し(ステップS14)、
全単語リストをリストWL2に入れ(ステップS1
5)、単語w1に関して以下の処理を繰り返す。
【0040】まず、リストWL2の先頭の単語w2を取
り出し(ステップS17)、単語w1と同じ単語でなけ
れば(ステップS18でNO)、単語w1から単語w2
への想起の強さを計算部3から参照し(ステップS1
9)、想起の強さが閾値を超えていれば(ステップS2
0でYES)、単語w1から単語w2へ有向リンクを張
る(ステップS21)。想起の強さが閾値を超えていな
ければ(ステップS20でNO)、単語w1から単語w
2へはリンクを張らない。リストWL2中の1つの単語
についての処理を終えると、リストWL2中の次の単語
についても同様の処理を行い、これをリストWL2中の
全単語について繰り返す。
【0041】リストWL1中の1つの単語に関して上述
した処理を終えると(ステップS16でYES)、リス
トWL1から次の単語を取り出し(ステップS14)、
その単語についても前述と同様の処理を行う。これをリ
ストWL1中の全単語について繰り返す(ステップS1
3)。
【0042】次に、本発明の意味ネットワーク自動作成
装置の第二の実施例について説明する。図11はその構
成を示し、図12はその処理の流れを示す。この意味ネ
ットワーク自動作成装置20は、記憶部1、統計部2、
計算部3、作成部4から構成される。
【0043】統計部1は、図示しない入力装置や記憶装
置などから複数のテキストを入力し(ステップS1)、
それらのテキストに対して形態素解析を行い(ステップ
S2−1)、さらにそれらのテキストに対して語義曖昧
性解消を行い(ステップS2−2)、その後それらのテ
キストから概念と概念の共起頻度、概念の出現頻度、全
テキスト数を統計する(ステップS3)。次に、計算部
3は、統計部2から概念と概念の共起頻度、概念の出現
頻度、全テキスト数を入力し、これらのデータを基に概
念から概念への想起の強さを情報量尺度を用いて計算す
る(ステップS4)。次に、作成部4は、概念をノード
として表現し、計算部3から、概念から概念への想起の
強さを参照し、想起の強さが予め定めた閾値以上の概念
から概念へリンクを張ることによって意味ネットワーク
を作成し(ステップS5)、これを記憶部1へ出力する
(ステップS6)。
【0044】第二の実施例が第一の実施例と相違すると
ころは、第一の実施例では単語からなる意味ネットワー
クを作成しているのに対し、第二の実施例では、概念か
らなる意味ネットワークを作成している点である。ここ
でいう概念は、直感的に単語の表す意味のことである。
このため、統計部2は、形態素解析を行ったテキストに
対してさらに語義曖昧性解消を行う。たとえば、図5と
図6のテキスト例では、「fly 」には「飛ぶ」の意味も
あれば、「蝿」の意味もある。語義曖昧性解消では、前
後の文脈をみて、この文における「fly 」の意味は「飛
ぶ」の意味であること、つまり、「fly 」の表す概念が
「飛ぶ」であることを判断する。図6の形態素解析結果
に対して語義曖昧性解消を行った後、たとえば、図13
のような結果が得られる。図13では、たとえば、「fl
y2」は「飛ぶ」の概念、つまり「飛ぶ」の意味を表す。
統計部2は、次に概念と概念の共起頻度を統計する。
【0045】計算部3は、統計部2から概念と概念の共
起頻度、概念の出現頻度、全テキスト数を入力する。次
に、各概念sに対して、その概念sから他の概念wへの
想起の強さを計算する。計算方法は第一の実施例と同じ
である。
【0046】作成部4は、概念をノードとして表現す
る。次に、作成部4は、計算部3から、概念から概念へ
の想起の強さを参照し、想起の強さの大きい概念のノー
ドの間にリンクを張る。具体的には、たとえば、概念s
から概念wへの想起の強さが閾値より大きければ、概念
sのノードから概念wのノードへ有向のリンクを張る。
このように、すべての概念に対してリンク張る操作を繰
り返し、意味ネットワークを作成する。記憶部1は、こ
うして作成された意味ネットワークを記憶する。
【0047】次に、本発明の意味ネットワーク自動作成
装置の第三の実施例について述べる。図14はその構成
を示す。この意味ネットワーク自動作成装置30は、記
憶部1、統計部2、計算部3、作成部4、インタフェー
ス部5、探索部6、表示部7から構成される。
【0048】第三の実施例はインタフェース部5、探索
部6、表示部7を備える点で第一の実施例と異なる。そ
の他の部分は第一の実施例と同じである。
【0049】インタフェース部5は、図示しないキーボ
ード等の入力装置を通じてユーザから意味ネットワーク
におけるノードの指定を受ける。たとえば、ユーザが
「car」というノードを指定すると、それを受ける。ま
た、探索の範囲の指定もユーザから入力する。
【0050】探索部6は、インタフェース部5からユー
ザに指定されたノードを入力し、また記憶部1から意味
ネットワークを入力し、意味ネットワークにおける指定
されたノードを含む部分意味ネットワークを見つけ出
す。具体的には、探索部6は、指定されたノードから連
想を行う。連想は、まず指定されたノードから始まり、
そのノードとつながったノードへ行き、さらにつながっ
たノードへ行く。連想は、探索範囲の指定でユーザによ
って指定された回数まで繰り返される。但し、連想で一
度尋ねたことのあるノードにマークをつけ、そのノード
からさらに連想を行わないようにする。
【0051】図15に記憶部1に記憶された意味ネット
ワークの例を示す。図15で示すのは、ロイター通信の
新聞記事約9000件のデータを基に本発明の意味ネッ
トワーク自動作成装置を使って実際に構築した意味ネッ
トワークの一部である。本発明によれば、数少ないデー
タをもっていても人間の直感にかなり近い意味ネットワ
ークを作成できることがわかる。このような意味ネット
ワークに対して、「car 」というノードから一段回の連
想を行うと、探索部6は図16に示すような部分的な意
味ネットワークを見つけ、表示部7は、見つかった部分
的な意味ネットワークをユーザに示す。
【0052】図17に探索部6の処理例を示す。探索部
6はインタフェース部5を通じてユーザからノード指定
と何段までの連想を行うかの指定を受け取る(ステップ
S31)。指定されたノードをstart、指定された
段数をkとする。探索部6は、再帰関数Find_Pa
thを実行する(ステップS32)。ここで、再帰関数
Find_Pathは、startとkを引数とし、パ
スのリストPath_listを返す関数である。この
返却されたパスのリストPath_Listが表示部7
に出力される(ステップS33)。
【0053】再帰関数Find_Pathの処理例を図
18に示す。引数はnode、kとする。まず、nod
eは連想されたことがあるとマークし、Path_Li
stを空リストとする(ステップS41)。引数kが0
でなければ(ステップS42でNO)、nodeにリン
クされたノードのリストをLinkedリストに入れ
(ステップS43)、Linkedリストから先頭のノ
ードfirstを取り出し(ステップS45)、それが
連想されたことがないノードであれば(ステップS46
でNO)、firstとk−1を引数として自分自身を
呼び出し、その返却されたPartial_Path−
ListのパスをPath_Listに追加する(ステ
ップS47)。同じ処理をLinkedリスト中の残り
のノードについても繰り返し、Linkedリスト中の
全ノードについての処理を終えると(ステップS44で
YES)、Path_Listにおける全てのパスの先
頭にnodeをつけ、得られた新しいPath_Lis
tを返し(ステップS48)、処理を終える。
【0054】なお、図14に示した第三の実施例では、
第一の実施例に対してインタフェース部5、探索部6お
よび表示部7を追加したが、第二の実施例に対してイン
タフェース部5、探索部6および表示部7を追加するこ
とにより、ユーザから指定された概念のノードを含む部
分意味ネットワークを探索して表示する実施例(第四の
実施例)が実現できる。
【0055】図19は本発明を適用したコンピュータの
一例を示す構成図である。コンピュータAは、中央処理
装置、主記憶、ハードディスク装置、フロッピィディス
ク装置、CD−ROMユニットなどを備えるコンピュー
タ本体Bと、表示装置Cと、キーボードDと、マウスE
とで構成される。Fはフロッピィディスク、CD−RO
M等の機械読み取り可能な記録媒体であり、意味ネット
ワーク自動作成プログラムが記録されている。記録媒体
Fに記録された意味ネットワーク自動作成プログラム
は、コンピュータ本体Bによって読み取られ、コンピュ
ータ本体Bの動作を制御することにより、コンピュータ
本体B上に、図1に示した第一の実施例および図11に
示した第二の実施例にあっては、記憶部1、統計部2、
計算部3、作成部4を実現し、図14に示した第三の実
施例および前記第四の実施例にあっては更にインタフェ
ース部5、探索部6および表示部7を実現する。
【0056】
【発明の効果】以上説明したように、本発明によれば、
人手によらない効率的な方法によって意味ネットワーク
を構築することができ、また、データを基に情報量尺度
を用いて作成しているので、非常に客観的な知識を構築
することが可能である。更に、ループを持つ意味ネット
ワークも作成することができ、また或るノードから別の
ノードへの有向リンクおよびその逆方向の有向リンクを
統計的な想起の度合いに基づいてそれぞれ独立に作成す
ることが可能である。
【図面の簡単な説明】
【図1】本発明の意味ネットワーク自動作成装置の第一
の実施例のブロック図である。
【図2】本発明の意味ネットワーク自動作成装置の第一
の実施例の処理例を示すフローチャートである。
【図3】入力テキストの例を示す図である。
【図4】図3のテキストに対する形態素解析の結果の例
を示す図である。
【図5】入力テキストの例を示す図である。
【図6】図5のテキストに対する形態素解析の結果の例
を示す図である。
【図7】統計部の処理例の説明図である。
【図8】単語word1から単語word2への想起の
強さの具体的な計算例を示す図である。
【図9】単語word2から単語word1への想起の
強さの具体的な計算例を示す図である。
【図10】作成部の処理例を示すフローチャートであ
る。
【図11】本発明の意味ネットワーク自動作成装置の第
二の実施例のブロック図である。
【図12】本発明の意味ネットワーク自動作成装置の第
二の実施例の処理例を示すフローチャートである。
【図13】図6のテキストに対する語義曖昧性解消の結
果の例を示す図である。
【図14】本発明の意味ネットワーク自動作成装置の第
三の実施例のブロック図である。
【図15】構築された意味ネットワークの一部分の例を
示す図である。
【図16】探索できた部分意味ネットワークの例を示す
図である。
【図17】探索部の処理例を示すフローチャートであ
る。
【図18】探索部で実行される再帰関数の処理例を示す
フローチャートである。
【図19】本発明を適用したコンピュータの一例を示す
構成図である。
【符号の説明】
1…記憶部 2…統計部 3…計算部 4…作成部 5…インタフェース部 6…探索部 7…表示部 10、20、30…意味ネットワーク自動作成装置
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B075 NK32 NK44 NR02 NR20 QT10 5B091 AA15 CA02 CC05 CC16 EA01 EA24 5D015 HH23 9A001 CC02 HH15 HH23 JJ12 JJ25

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 単語からなる意味ネットワークを記憶す
    る記憶部と、 複数のテキストを入力し、入力されたテキストに対して
    形態素解析を行い、形態素解析を行ったテキストから、
    単語と単語の共起頻度、単語の出現頻度、全テキスト数
    を統計する統計部と、 前記統計部から単語と単語の共起頻度、単語の出現頻
    度、全テキスト数を入力し、入力された単語と単語の共
    起頻度、単語の出現頻度、全テキスト数を基に、各単語
    に対して、その単語から他の単語への想起の強さを情報
    量尺度を用いて計算する計算部と、 一つの単語を一つのノードとして表現し、表現された各
    々のノードに対して、そのノードの単語から他のノード
    の単語への想起の強さを前記計算部から参照し、参照さ
    れた想起の強さが予め定められた閾値以上の場合、その
    ノードから他のノードへ有向リンクを張り、有向リンク
    が張られた有向グラフを単語からなる意味ネットワーク
    として前記記憶部に出力する作成部とを備えることを特
    徴とする意味ネットワーク自動作成装置。
  2. 【請求項2】 前記計算部は、各単語に対して、その単
    語から他の単語への想起の強さを、その単語が出現する
    テキスト群における他の単語の出現、非出現にかかる統
    計量およびその単語が出現しないテキスト群における他
    の単語の出現、非出現にかかる統計量を考慮して、計算
    する請求項1記載の意味ネットワーク自動作成装置。
  3. 【請求項3】 前記計算部は、情報量尺度として確率的
    コンプレキシティを用いると共に一つのテキストを一つ
    のデータと見なし、任意の第1の単語から任意の第2の
    単語への想起の強さを、テキストにおいて第2の単語が
    出現したかどうかに着目した場合のデータの確率的コン
    プレキシティと、第1の単語が出現するテキスト群にお
    いて第2の単語が出現したかどうかに着目した場合のデ
    ータの確率的コンプレキシティおよび第1の単語が出現
    しないテキスト群において第2の単語が出現したかどう
    かに着目した場合のデータの確率的コンプレキシティの
    和との差分として計算する請求項1記載の意味ネットワ
    ーク自動作成装置。
  4. 【請求項4】 概念からなる意味ネットワークを記憶す
    る記憶部と、 複数のテキストを入力し、入力されたテキストに対して
    形態素解析を行い、形態素解析を行ったテキストに対し
    て語義曖昧性解消を行い、語義曖昧性解消を行ったテキ
    ストから概念と概念の共起頻度、概念の出現頻度、全テ
    キスト数を統計する統計部と、 前記統計部から概念と概念の共起頻度、概念の出現頻
    度、全テキスト数を入力し、入力された概念と概念の共
    起頻度、概念の出現頻度、全テキスト数を基に、各概念
    に対して、その概念から他の概念への想起の強さを情報
    量尺度を用いて計算する計算部と、 一つの概念を一つのノードとして表現し、表現された各
    々のノードに対して、そのノードの概念から他のノード
    の概念への想起の強さを前記計算部から参照し、参照さ
    れた想起の強さが予め定められた閾値以上の場合、その
    ノードから他のノードへ有向リンクを張り、有向リンク
    が張られた有向グラフを概念からなる意味ネットワーク
    として前記記憶部に出力する作成部とを備えることを特
    徴とする意味ネットワーク自動作成装置。
  5. 【請求項5】 前記計算部は、各概念に対して、その概
    念から他の概念への想起の強さを、その概念が出現する
    テキスト群における他の概念の出現、非出現にかかる統
    計量およびその概念が出現しないテキスト群における他
    の概念の出現、非出現にかかる統計量を考慮して、計算
    する請求項4記載の意味ネットワーク自動作成装置。
  6. 【請求項6】 前記計算部は、情報量尺度として確率的
    コンプレキシティを用いると共に一つのテキストを一つ
    のデータと見なし、任意の第1の概念から任意の第2の
    概念への想起の強さを、テキストにおいて第2の概念が
    出現したかどうかに着目した場合のデータの確率的コン
    プレキシティと、第1の概念が出現するテキスト群にお
    いて第2の概念が出現したかどうかに着目した場合のデ
    ータの確率的コンプレキシティおよび第1の概念が出現
    しないテキスト群において第2の概念が出現したかどう
    かに着目した場合のデータの確率的コンプレキシティの
    和との差分として計算する請求項4記載の意味ネットワ
    ーク自動作成装置。
  7. 【請求項7】 ユーザから意味ネットワークにおけるノ
    ードの指定を受けるインタフェース部と、 前記インタフェース部からユーザに指定されたノードを
    入力し、また、記憶部から意味ネットワークを入力し、
    入力された意味ネットワークにおけるユーザに指定され
    たノードを含む部分意味ネットワークを見つけ出す探索
    部と、 前記探索部から部分意味ネットワークを入力し、入力さ
    れた部分意味ネットワークを表示する表示部とを備える
    ことを特徴とする請求項1から6の何れか1項に記載の
    意味ネットワーク自動作成装置。
  8. 【請求項8】 コンピュータを、 単語からなる意味ネットワークを記憶する記憶部、 複数のテキストを入力し、入力されたテキストに対して
    形態素解析を行い、形態素解析を行ったテキストから、
    単語と単語の共起頻度、単語の出現頻度、全テキスト数
    を統計する統計部、 前記統計部から単語と単語の共起頻度、単語の出現頻
    度、全テキスト数を入力し、入力された単語と単語の共
    起頻度、単語の出現頻度、全テキスト数を基に、各単語
    に対して、その単語から他の単語への想起の強さを情報
    量尺度を用いて計算する計算部、 一つの単語を一つのノードとして表現し、表現された各
    々のノードに対して、そのノードの単語から他のノード
    の単語への想起の強さを前記計算部から参照し、参照さ
    れた想起の強さが予め定められた閾値以上の場合、その
    ノードから他のノードへ有向リンクを張り、有向リンク
    が張られた有向グラフを単語からなる意味ネットワーク
    として前記記憶部に出力する作成部、 として機能させるプログラムを記録したコンピュータ可
    読記録媒体。
  9. 【請求項9】 前記計算部は、各単語に対して、その単
    語から他の単語への想起の強さを、その単語が出現する
    テキスト群における他の単語の出現、非出現にかかる統
    計量およびその単語が出現しないテキスト群における他
    の単語の出現、非出現にかかる統計量を考慮して、計算
    する請求項8記載のコンピュータ可読記録媒体。
  10. 【請求項10】 前記計算部は、情報量尺度として確率
    的コンプレキシティを用いると共に一つのテキストを一
    つのデータと見なし、任意の第1の単語から任意の第2
    の単語への想起の強さを、テキストにおいて第2の単語
    が出現したかどうかに着目した場合のデータの確率的コ
    ンプレキシティと、第1の単語が出現するテキスト群に
    おいて第2の単語が出現したかどうかに着目した場合の
    データの確率的コンプレキシティおよび第1の単語が出
    現しないテキスト群において第2の単語が出現したかど
    うかに着目した場合のデータの確率的コンプレキシティ
    の和との差分として計算する請求項8記載のコンピュー
    タ可読記録媒体。
  11. 【請求項11】 コンピュータを、 概念からなる意味ネットワークを記憶する記憶部、 複数のテキストを入力し、入力されたテキストに対して
    形態素解析を行い、形態素解析を行ったテキストに対し
    て語義曖昧性解消を行い、語義曖昧性解消を行ったテキ
    ストから概念と概念の共起頻度、概念の出現頻度、全テ
    キスト数を統計する統計部、 前記統計部から概念と概念の共起頻度、概念の出現頻
    度、全テキスト数を入力し、入力された概念と概念の共
    起頻度、概念の出現頻度、全テキスト数を基に、各概念
    に対して、その概念から他の概念への想起の強さを情報
    量尺度を用いて計算する計算部、 一つの概念を一つのノードとして表現し、表現された各
    々のノードに対して、そのノードの概念から他のノード
    の概念への想起の強さを前記計算部から参照し、参照さ
    れた想起の強さが予め定められた閾値以上の場合、その
    ノードから他のノードへ有向リンクを張り、有向リンク
    が張られた有向グラフを概念からなる意味ネットワーク
    として前記記憶部に出力する作成部、 として機能させるプログラムを記録したコンピュータ可
    読記録媒体。
  12. 【請求項12】 前記計算部は、各概念に対して、その
    概念から他の概念への想起の強さを、その概念が出現す
    るテキスト群における他の概念の出現、非出現にかかる
    統計量およびその概念が出現しないテキスト群における
    他の概念の出現、非出現にかかる統計量を考慮して、計
    算する請求項11記載のコンピュータ可読記録媒体。
  13. 【請求項13】 前記計算部は、情報量尺度として確率
    的コンプレキシティを用いると共に一つのテキストを一
    つのデータと見なし、任意の第1の概念から任意の第2
    の概念への想起の強さを、テキストにおいて第2の概念
    が出現したかどうかに着目した場合のデータの確率的コ
    ンプレキシティと、第1の概念が出現するテキスト群に
    おいて第2の概念が出現したかどうかに着目した場合の
    データの確率的コンプレキシティおよび第1の概念が出
    現しないテキスト群において第2の概念が出現したかど
    うかに着目した場合のデータの確率的コンプレキシティ
    の和との差分として計算する請求項11記載のコンピュ
    ータ可読記録媒体。
  14. 【請求項14】 コンピュータを、更に、 ユーザから意味ネットワークにおけるノードの指定を受
    けるインタフェース部、 前記インタフェース部からユーザに指定されたノードを
    入力し、また、記憶部から部分意味ネットワークを入力
    し、入力された部分意味ネットワークにおけるユーザに
    指定されたノードを含む部分意味ネットワークを見つけ
    出す探索部、 前記探索部から部分意味ネットワークを入力し、入力さ
    れた部分意味ネットワークを表示する表示部、 として機能させるプログラムを記録した請求項8から1
    3の何れか1項に記載のコンピュータ可読記録媒体。
JP2000057971A 2000-02-29 2000-02-29 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体 Expired - Fee Related JP3428554B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000057971A JP3428554B2 (ja) 2000-02-29 2000-02-29 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000057971A JP3428554B2 (ja) 2000-02-29 2000-02-29 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体

Publications (2)

Publication Number Publication Date
JP2001243223A true JP2001243223A (ja) 2001-09-07
JP3428554B2 JP3428554B2 (ja) 2003-07-22

Family

ID=18578634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000057971A Expired - Fee Related JP3428554B2 (ja) 2000-02-29 2000-02-29 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体

Country Status (1)

Country Link
JP (1) JP3428554B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085389A (ja) * 2004-09-15 2006-03-30 Kyoto Univ 検索装置
JP2006113683A (ja) * 2004-10-12 2006-04-27 Patolis Corp 文献検索支援装置、その方法、文献検索装置、それらのプログラム、および、そのプログラムを記録した記録媒体
JP2008209988A (ja) * 2007-02-23 2008-09-11 Omron Corp Fmeaシート作成装置
JP2009516233A (ja) * 2005-11-18 2009-04-16 マイクロソフト コーポレーション インプットデータに対するワードクラスタリング
US7698271B2 (en) 2006-09-15 2010-04-13 Fuji Xerox Co., Ltd. Conceptual network generating system, conceptual network generating method, and program product therefor
JP2013092826A (ja) * 2011-10-24 2013-05-16 Yahoo Japan Corp 検索クエリ関連単語出力装置、検索クエリ関連単語出力方法および検索補助システム
JP2014501988A (ja) * 2011-01-07 2014-01-23 プライマル フュージョン インコーポレイテッド 複合的知識表現の解析及び合成を行うシステム及び方法
JP2016099751A (ja) * 2014-11-20 2016-05-30 日本電信電話株式会社 行動ネットワーク情報抽出装置、行動ネットワーク情報抽出方法及び行動ネットワーク情報抽出プログラム
JP2016099750A (ja) * 2014-11-20 2016-05-30 日本電信電話株式会社 行動ネットワーク情報抽出装置、行動ネットワーク情報抽出方法及び行動ネットワーク情報抽出プログラム
CN106202051A (zh) * 2016-07-19 2016-12-07 华南理工大学 基于有向有权图发现新词的方法
US9934465B2 (en) 2005-03-30 2018-04-03 Primal Fusion Inc. Systems and methods for analyzing and synthesizing complex knowledge representations
JP2018092347A (ja) * 2016-12-02 2018-06-14 国立大学法人 東京大学 情報処理装置、情報処理方法及びプログラム
US10002325B2 (en) 2005-03-30 2018-06-19 Primal Fusion Inc. Knowledge representation systems and methods incorporating inference rules
US10248669B2 (en) 2010-06-22 2019-04-02 Primal Fusion Inc. Methods and devices for customizing knowledge representation systems
CN114491060A (zh) * 2021-12-28 2022-05-13 永中软件股份有限公司 动态联想知识网络的更新方法、语义纠错方法
JP2022122230A (ja) * 2021-02-09 2022-08-22 アウー インテリジェンス, インコーポレイテッド トレジャーキーワードの抽出及びトレジャーキーワードネットを形成する方法、並びに、そのシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0594482A (ja) * 1991-10-01 1993-04-16 Nippon Steel Corp シソーラス・システム
JPH1196177A (ja) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> 用語辞書生成方法および用語辞書生成プログラムを記録した記録媒体
JP2000056977A (ja) * 1998-06-02 2000-02-25 Internatl Business Mach Corp <Ibm> テキスト情報を処理する方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0594482A (ja) * 1991-10-01 1993-04-16 Nippon Steel Corp シソーラス・システム
JPH1196177A (ja) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> 用語辞書生成方法および用語辞書生成プログラムを記録した記録媒体
JP2000056977A (ja) * 1998-06-02 2000-02-25 Internatl Business Mach Corp <Ibm> テキスト情報を処理する方法および装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085389A (ja) * 2004-09-15 2006-03-30 Kyoto Univ 検索装置
JP2006113683A (ja) * 2004-10-12 2006-04-27 Patolis Corp 文献検索支援装置、その方法、文献検索装置、それらのプログラム、および、そのプログラムを記録した記録媒体
US9934465B2 (en) 2005-03-30 2018-04-03 Primal Fusion Inc. Systems and methods for analyzing and synthesizing complex knowledge representations
US10002325B2 (en) 2005-03-30 2018-06-19 Primal Fusion Inc. Knowledge representation systems and methods incorporating inference rules
JP2009516233A (ja) * 2005-11-18 2009-04-16 マイクロソフト コーポレーション インプットデータに対するワードクラスタリング
US8249871B2 (en) 2005-11-18 2012-08-21 Microsoft Corporation Word clustering for input data
US7698271B2 (en) 2006-09-15 2010-04-13 Fuji Xerox Co., Ltd. Conceptual network generating system, conceptual network generating method, and program product therefor
JP2008209988A (ja) * 2007-02-23 2008-09-11 Omron Corp Fmeaシート作成装置
US10248669B2 (en) 2010-06-22 2019-04-02 Primal Fusion Inc. Methods and devices for customizing knowledge representation systems
JP2014501988A (ja) * 2011-01-07 2014-01-23 プライマル フュージョン インコーポレイテッド 複合的知識表現の解析及び合成を行うシステム及び方法
JP2013092826A (ja) * 2011-10-24 2013-05-16 Yahoo Japan Corp 検索クエリ関連単語出力装置、検索クエリ関連単語出力方法および検索補助システム
JP2016099751A (ja) * 2014-11-20 2016-05-30 日本電信電話株式会社 行動ネットワーク情報抽出装置、行動ネットワーク情報抽出方法及び行動ネットワーク情報抽出プログラム
JP2016099750A (ja) * 2014-11-20 2016-05-30 日本電信電話株式会社 行動ネットワーク情報抽出装置、行動ネットワーク情報抽出方法及び行動ネットワーク情報抽出プログラム
CN106202051A (zh) * 2016-07-19 2016-12-07 华南理工大学 基于有向有权图发现新词的方法
JP2018092347A (ja) * 2016-12-02 2018-06-14 国立大学法人 東京大学 情報処理装置、情報処理方法及びプログラム
JP2022122230A (ja) * 2021-02-09 2022-08-22 アウー インテリジェンス, インコーポレイテッド トレジャーキーワードの抽出及びトレジャーキーワードネットを形成する方法、並びに、そのシステム
JP7212961B2 (ja) 2021-02-09 2023-01-26 アウー インテリジェンス, インコーポレイテッド トレジャーキーワードの抽出及びトレジャーキーワードネットを形成する方法、並びに、そのシステム
CN114491060A (zh) * 2021-12-28 2022-05-13 永中软件股份有限公司 动态联想知识网络的更新方法、语义纠错方法
CN114491060B (zh) * 2021-12-28 2024-02-20 永中软件股份有限公司 动态联想知识网络的更新方法、语义纠错方法

Also Published As

Publication number Publication date
JP3428554B2 (ja) 2003-07-22

Similar Documents

Publication Publication Date Title
US8407253B2 (en) Apparatus and method for knowledge graph stabilization
US7865356B2 (en) Method and apparatus for providing proper or partial proper name recognition
Kim et al. Kernel approaches for genic interaction extraction
US6684201B1 (en) Linguistic disambiguation system and method using string-based pattern training to learn to resolve ambiguity sites
JP3428554B2 (ja) 意味ネットワーク自動作成装置及びコンピュータ可読記録媒体
Arendarenko et al. Ontology-based information and event extraction for business intelligence
JP6729095B2 (ja) 情報処理装置及びプログラム
Ramina et al. Topic level summary generation using BERT induced Abstractive Summarization Model
KR102292040B1 (ko) 기계 독해 기반 지식 추출을 위한 시스템 및 방법
Sasidhar et al. A survey on named entity recognition in Indian languages with particular reference to Telugu
Subbalakshmi et al. A Gravitational Search Algorithm Study on Text Summarization Using NLP
KR20210044697A (ko) Ai 기반 질의응답 시스템 및 방법
Radoev et al. A language adaptive method for question answering on French and English
JP2003316765A (ja) 階層化文書マッピング装置
WO2020240871A1 (ja) パラメータ学習装置、パラメータ学習方法、及びコンピュータ読み取り可能な記録媒体
Minkov et al. Learning graph walk based similarity measures for parsed text
Olsen Social Statistics Using Strategic Structuralism
JP5117744B2 (ja) 単語意味タグ付与装置および方法、プログラム並びに記録媒体
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
Mediouni et al. Improved learning for stochastic timed models by state-merging algorithms
Zheng et al. Character-based parsing with convolutional neural network
Dey et al. A deep dive into supervised extractive and abstractive summarization from text
JP2004272352A (ja) 類似度計算方法、装置、プログラムおよび該プログラムを格納した記録媒体
Mangassarian et al. A general framework for subjective information extraction from unstructured English text
McGarry Hidden Markov Models for Surprising Pattern Detection in Discrete Symbol Sequence Data

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees