JPH086965A - 情報検索装置 - Google Patents
情報検索装置Info
- Publication number
- JPH086965A JPH086965A JP6134217A JP13421794A JPH086965A JP H086965 A JPH086965 A JP H086965A JP 6134217 A JP6134217 A JP 6134217A JP 13421794 A JP13421794 A JP 13421794A JP H086965 A JPH086965 A JP H086965A
- Authority
- JP
- Japan
- Prior art keywords
- information
- search
- sentence
- article
- associative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】
【目的】 データベースを用いて検索要求に対する関連
性はあるが異質な情報を提供できるような情報検索装置
を提供する。 【構成】 情報検索装置23は、構文解析部27と、想
起情報抽出部29と、データベース31とを含み、構文
解析部27で記事33が構文解析されデータベース31
にその記事を表わす情報が登録される。また、検索文3
5がユーザインタフェース25を介して構文解析部27
に入力され、構文解析部27は検索文35を構文解析
し、想起情報抽出部29が記事33と検索文35の情報
に基づいて連想して想起情報を求める。データベース3
1は想起情報と一致する記事を表わす情報をユーザイン
タフェース25を介して記事の提供37として利用者に
提供する。
性はあるが異質な情報を提供できるような情報検索装置
を提供する。 【構成】 情報検索装置23は、構文解析部27と、想
起情報抽出部29と、データベース31とを含み、構文
解析部27で記事33が構文解析されデータベース31
にその記事を表わす情報が登録される。また、検索文3
5がユーザインタフェース25を介して構文解析部27
に入力され、構文解析部27は検索文35を構文解析
し、想起情報抽出部29が記事33と検索文35の情報
に基づいて連想して想起情報を求める。データベース3
1は想起情報と一致する記事を表わす情報をユーザイン
タフェース25を介して記事の提供37として利用者に
提供する。
Description
【0001】
【産業上の利用分野】この発明は、情報検索装置に関
し、特に、検索要求に対して関連はあるが意外な検索結
果を得ることができるような情報検索装置に関する。
し、特に、検索要求に対して関連はあるが意外な検索結
果を得ることができるような情報検索装置に関する。
【0002】
【従来の技術】近年、バーチャルリアリティ技術を応用
した臨場感通信会議システムの研究が行なわれている。
した臨場感通信会議システムの研究が行なわれている。
【0003】図18は、臨場感通信会議の様子を示した
図である。この臨場感通信会議システムは、三次元コン
ピュータグラフィックスによって生成される仮想空間1
を会議の「場」として提供することにより、従来のTV
会議システムのような単なる音声・映像の伝送にとどま
らず、実空間3に存在する人物7に仮想空間1の人物5
a,5bの雰囲気を伝えることや、また仮想物体9を互
いに遠隔地にいる会議参加者が操作することによる高度
な協調作業を可能としている。
図である。この臨場感通信会議システムは、三次元コン
ピュータグラフィックスによって生成される仮想空間1
を会議の「場」として提供することにより、従来のTV
会議システムのような単なる音声・映像の伝送にとどま
らず、実空間3に存在する人物7に仮想空間1の人物5
a,5bの雰囲気を伝えることや、また仮想物体9を互
いに遠隔地にいる会議参加者が操作することによる高度
な協調作業を可能としている。
【0004】また、臨場感通信会議に登場する人物像
は、従来のTV会議などとは異なり、人物の身振りや表
情などの特徴点の動きに関する情報だけが通信され、こ
れを基に三次元グラフィックスによって構成されて表示
される。したがって、仮想空間1に登場する人物5a,
5bと実際の会議参加者が全く別人物であるような、会
議参加者の匿名化が容易に実現される。これは、さまざ
まな肩書のものが集まって新商品の企画会議などに行な
う際などに有効となる。
は、従来のTV会議などとは異なり、人物の身振りや表
情などの特徴点の動きに関する情報だけが通信され、こ
れを基に三次元グラフィックスによって構成されて表示
される。したがって、仮想空間1に登場する人物5a,
5bと実際の会議参加者が全く別人物であるような、会
議参加者の匿名化が容易に実現される。これは、さまざ
まな肩書のものが集まって新商品の企画会議などに行な
う際などに有効となる。
【0005】このように臨場感通信会議システムが提供
する会議空間は非常に創造性に富んだものであり、本質
的に発想の場として優れた素質を備えている。
する会議空間は非常に創造性に富んだものであり、本質
的に発想の場として優れた素質を備えている。
【0006】そこでこの臨場感通信会議システムを「発
想の場」としてより高度に応用するための研究も進めら
れており、そのような応用の1つとして、その発想の場
で画期的な発想を得るためのきっかけを与えるようなも
のが望まれる。
想の場」としてより高度に応用するための研究も進めら
れており、そのような応用の1つとして、その発想の場
で画期的な発想を得るためのきっかけを与えるようなも
のが望まれる。
【0007】一方、昨今のデータベースの充実は目覚ま
しく、極めて多岐の分野にわたって膨大な知識が蓄積さ
れつつある。したがってこのデータベースに蓄積された
膨大な知識を発想作業に利用することは非常に有益と思
われる。
しく、極めて多岐の分野にわたって膨大な知識が蓄積さ
れつつある。したがってこのデータベースに蓄積された
膨大な知識を発想作業に利用することは非常に有益と思
われる。
【0008】
【発明が解決しようとする課題】しかしながら、一般的
に、データベースは、情報収集過程でのいわゆるデータ
ベース検索として利用される。したがって、従来のデー
タベース検索では、検索意図と提供される情報とが一致
するような完全想起が望まれていた。ここで、検索意図
とは、たとえば検索者が要求する検索結果である。この
ような情報が新たな発想を得るための基本的な情報とし
て不可欠であるのはもちろんだが、しかしそのような情
報だけでは画期的な発想を得るためには不十分である。
その理由は、従来のデータベース検索で得られる情報は
わかりきっている情報だからである。
に、データベースは、情報収集過程でのいわゆるデータ
ベース検索として利用される。したがって、従来のデー
タベース検索では、検索意図と提供される情報とが一致
するような完全想起が望まれていた。ここで、検索意図
とは、たとえば検索者が要求する検索結果である。この
ような情報が新たな発想を得るための基本的な情報とし
て不可欠であるのはもちろんだが、しかしそのような情
報だけでは画期的な発想を得るためには不十分である。
その理由は、従来のデータベース検索で得られる情報は
わかりきっている情報だからである。
【0009】ゆえに、本発明の目的は、データベースを
用いた検索であり、かつ発想の場に画期的な発想のきっ
かけを提供することができるような情報検索装置を提供
することである。
用いた検索であり、かつ発想の場に画期的な発想のきっ
かけを提供することができるような情報検索装置を提供
することである。
【0010】
【課題を解決するための手段】請求項1の発明に係る情
報検索装置は、検索文および複数の登録文のそれぞれを
構文解析する構文解析手段と、複数の登録文を関連付け
た連想情報および検索文を表わす検索文情報に基づい
て、検索文情報から連想される想起情報を求める想起情
報抽出手段と、各登録文を表わす登録文情報を登録し、
想起情報に応じた登録文情報を検索結果として出力する
データベースとを備えた情報検索装置において、想起情
報抽出手段は、検索意図と異なり、かつ、検索文情報か
ら連想されるその度合が所定の範囲内の想起情報を求め
ることを特徴としている。
報検索装置は、検索文および複数の登録文のそれぞれを
構文解析する構文解析手段と、複数の登録文を関連付け
た連想情報および検索文を表わす検索文情報に基づい
て、検索文情報から連想される想起情報を求める想起情
報抽出手段と、各登録文を表わす登録文情報を登録し、
想起情報に応じた登録文情報を検索結果として出力する
データベースとを備えた情報検索装置において、想起情
報抽出手段は、検索意図と異なり、かつ、検索文情報か
ら連想されるその度合が所定の範囲内の想起情報を求め
ることを特徴としている。
【0011】請求項2の発明に係る情報検索装置では、
請求項1の想起情報抽出手段は、連想情報を記憶し、検
索文情報から連想される想起情報を求める連想記憶手段
と、連想記憶手段が連想するその度合を設定する設定手
段と、想起情報に応じた登録文情報を検索結果としてデ
ータベースに出力させるように管理するデータベース管
理手段とを含んでいる。
請求項1の想起情報抽出手段は、連想情報を記憶し、検
索文情報から連想される想起情報を求める連想記憶手段
と、連想記憶手段が連想するその度合を設定する設定手
段と、想起情報に応じた登録文情報を検索結果としてデ
ータベースに出力させるように管理するデータベース管
理手段とを含んでいる。
【0012】請求項3の発明に係る情報検索装置では、
請求項2の検索文情報、想起情報および登録文情報のそ
れぞれは、その要素が2値化信号で表わされるベクトル
量を含み、連想記憶手段は、連想情報および検索文情報
に基づいて得られるベクトル量のその要素の値が所定の
範囲内であるか否かで2値化して想起情報を求め、設定
手段は、範囲を設定する。
請求項2の検索文情報、想起情報および登録文情報のそ
れぞれは、その要素が2値化信号で表わされるベクトル
量を含み、連想記憶手段は、連想情報および検索文情報
に基づいて得られるベクトル量のその要素の値が所定の
範囲内であるか否かで2値化して想起情報を求め、設定
手段は、範囲を設定する。
【0013】請求項4の発明に係る情報検索装置では、
請求項1の想起情報抽出手段は、データベースに、想起
情報との一致度合が所定の範囲内の登録文情報を検索結
果として出力させる。
請求項1の想起情報抽出手段は、データベースに、想起
情報との一致度合が所定の範囲内の登録文情報を検索結
果として出力させる。
【0014】請求項5の発明に係る情報検索装置は、検
索文および複数の登録文のそれぞれを単語で分解して構
文解析する構文解析手段と、複数の登録文を単語間で関
連付けた連想情報および検索文を表わしかつその単語を
特定可能な検索文情報に基づいて、検索文情報から連想
される想起情報を求める想起情報抽出手段と、各登録文
を表わしかつその単語を特定可能な登録文情報を登録
し、想起情報に応じた登録文情報を検索結果として出力
するデータベースとを備えた情報検索装置において、構
文解析手段は、所定の条件に従う単語を抽出して構文解
析し、想起情報抽出手段は、検索意図と異なる想起情報
を求めることを特徴としている。
索文および複数の登録文のそれぞれを単語で分解して構
文解析する構文解析手段と、複数の登録文を単語間で関
連付けた連想情報および検索文を表わしかつその単語を
特定可能な検索文情報に基づいて、検索文情報から連想
される想起情報を求める想起情報抽出手段と、各登録文
を表わしかつその単語を特定可能な登録文情報を登録
し、想起情報に応じた登録文情報を検索結果として出力
するデータベースとを備えた情報検索装置において、構
文解析手段は、所定の条件に従う単語を抽出して構文解
析し、想起情報抽出手段は、検索意図と異なる想起情報
を求めることを特徴としている。
【0015】
【作用】請求項1の発明に係る情報検索装置は、構文解
析手段によって検索文および複数の登録文のそれぞれを
構文解析し、想起情報抽出手段によって複数の登録文を
関連付けた連想情報および検索文を表わす検索文情報に
基づく、検索意図と異なり、かつ、検索文情報から連想
されるその度合がたとえば間接的に関連するような所定
の範囲内の想起情報を求め、データベースによって各登
録文を表わす登録文情報を登録し、想起情報に応じた登
録文情報を検索結果として出力する。
析手段によって検索文および複数の登録文のそれぞれを
構文解析し、想起情報抽出手段によって複数の登録文を
関連付けた連想情報および検索文を表わす検索文情報に
基づく、検索意図と異なり、かつ、検索文情報から連想
されるその度合がたとえば間接的に関連するような所定
の範囲内の想起情報を求め、データベースによって各登
録文を表わす登録文情報を登録し、想起情報に応じた登
録文情報を検索結果として出力する。
【0016】請求項2の発明に係る情報検索装置は、連
想記憶手段によって連想情報を記憶し、検索文情報から
連想される想起情報を求め、設定手段によって連想記憶
手段が連想するその度合を設定し、データベース管理手
段によって想起情報に応じた登録文情報を検索結果とし
てデータベースに出力させて、検索結果の異質性を任意
に制御できる。
想記憶手段によって連想情報を記憶し、検索文情報から
連想される想起情報を求め、設定手段によって連想記憶
手段が連想するその度合を設定し、データベース管理手
段によって想起情報に応じた登録文情報を検索結果とし
てデータベースに出力させて、検索結果の異質性を任意
に制御できる。
【0017】請求項3の発明に係る情報検索装置は、連
想記憶手段によって連想情報およびその要素が2値化信
号で表わされる検索文情報に基づいて得られるベクトル
量の要素の値が設定手段によって設定される範囲内であ
るか否かで2値化してその要素が2値化信号で表わされ
る想起情報を求め、想起情報とその要素が2値化信号で
表わされる登録文情報とを比較して検索結果を得ること
ができる。
想記憶手段によって連想情報およびその要素が2値化信
号で表わされる検索文情報に基づいて得られるベクトル
量の要素の値が設定手段によって設定される範囲内であ
るか否かで2値化してその要素が2値化信号で表わされ
る想起情報を求め、想起情報とその要素が2値化信号で
表わされる登録文情報とを比較して検索結果を得ること
ができる。
【0018】請求項4の発明に係る情報検索装置は、た
とえば想起情報に完全に一致した登録文情報がない場合
であっても、想起情報との一致度合が所定の範囲内の登
録文情報を検索結果として出力し、検索文情報と関連性
はあるが検索意図と異なる異質な情報を検索結果とでき
る。
とえば想起情報に完全に一致した登録文情報がない場合
であっても、想起情報との一致度合が所定の範囲内の登
録文情報を検索結果として出力し、検索文情報と関連性
はあるが検索意図と異なる異質な情報を検索結果とでき
る。
【0019】請求項5の発明に係る情報検索装置は、構
文解析手段によって検索文および複数の登録文のそれぞ
れを所定の条件に従う単語で分解して構文解析し、想起
情報抽出手段によって複数の登録文を単語間で関連付け
た連想情報および検索文を表わしかつその単語を特定可
能な検索文情報に基づく検索文情報から連想される想起
情報を求め、データベースによって各登録文を表わしか
つその単語を特定可能な登録文情報を登録し、想起情報
に応じた登録文情報を検索結果として出力して、たとえ
ば無意味な検索結果を得ることを防止できる。
文解析手段によって検索文および複数の登録文のそれぞ
れを所定の条件に従う単語で分解して構文解析し、想起
情報抽出手段によって複数の登録文を単語間で関連付け
た連想情報および検索文を表わしかつその単語を特定可
能な検索文情報に基づく検索文情報から連想される想起
情報を求め、データベースによって各登録文を表わしか
つその単語を特定可能な登録文情報を登録し、想起情報
に応じた登録文情報を検索結果として出力して、たとえ
ば無意味な検索結果を得ることを防止できる。
【0020】
【実施例】まず、この発明の実施例による情報検索装置
を説明する前に、発想作業について簡単に説明する。
を説明する前に、発想作業について簡単に説明する。
【0021】発想作業は、大まかに、4つの過程で構成
される。第1の過程は情報の収集過程であり、第2の過
程は発散的思考の過程であり、第3の過程は収束的思考
の過程であり、第4の過程は評価の過程である。情報の
収集の過程は、たとえば日常の研究・生活、データベー
ス検索、他人の意見を聞くなどから多くの情報を得る過
程である。発散的思考の過程は、何らかのテーマの下で
関連する知識を連想的に自由に抽出する過程である。収
束的思考の過程は、発散的思考過程で抽出された知識
(アイデア断片)を統合し、各アイデア断片間に何らか
の新しい関連を見出す過程である。したがって、ここで
見出された新たな関連は「発想」である。評価の過程は
収束的思考過程で得られた発想を新奇性、実用性などの
面から評価する過程である。
される。第1の過程は情報の収集過程であり、第2の過
程は発散的思考の過程であり、第3の過程は収束的思考
の過程であり、第4の過程は評価の過程である。情報の
収集の過程は、たとえば日常の研究・生活、データベー
ス検索、他人の意見を聞くなどから多くの情報を得る過
程である。発散的思考の過程は、何らかのテーマの下で
関連する知識を連想的に自由に抽出する過程である。収
束的思考の過程は、発散的思考過程で抽出された知識
(アイデア断片)を統合し、各アイデア断片間に何らか
の新しい関連を見出す過程である。したがって、ここで
見出された新たな関連は「発想」である。評価の過程は
収束的思考過程で得られた発想を新奇性、実用性などの
面から評価する過程である。
【0022】このような発想過程において、発散的思考
過程で抽出される相互に全く異質なアイデア断片間に、
収束的思考過程で何らかの関連が発見され統合されると
きに画期的な発想が得られる。
過程で抽出される相互に全く異質なアイデア断片間に、
収束的思考過程で何らかの関連が発見され統合されると
きに画期的な発想が得られる。
【0023】そこで、データベースを用いた情報検索装
置によって「門外漢」を人工的に構成し、発散的思考支
援の実現を目標とする。
置によって「門外漢」を人工的に構成し、発散的思考支
援の実現を目標とする。
【0024】発散的思考過程における門外漢の役割は、
異質な情報の提供によって発想の場を広げ、他の会議参
加者に意外な情報相互の関連への気付きを促すことであ
る。
異質な情報の提供によって発想の場を広げ、他の会議参
加者に意外な情報相互の関連への気付きを促すことであ
る。
【0025】図1は、門外漢について説明するための図
である。たとえば、ある研究室においてブレインストー
ミングを行なう場合、日頃似たような研究を行なってい
る者同士ではどうしても発想の幅が狭まりがちである。
そこで、図1に示すような門外漢11を一人参加させ
る。
である。たとえば、ある研究室においてブレインストー
ミングを行なう場合、日頃似たような研究を行なってい
る者同士ではどうしても発想の幅が狭まりがちである。
そこで、図1に示すような門外漢11を一人参加させ
る。
【0026】門外漢11は、他の会議参加者である専門
家13の発言内容(専門的意見)について深く理解する
ことは一般的に不可能である。しかしその発言内容のう
ちから理解可能な断片を用いて自分なりにそれらの発言
を部分的/表面的理解15する。この場合、門外漢11
は専門家13の発言内容を誤解する場合もあり得る。そ
して、この部分的/表面的理解15を基に、門外漢11
は、自分の持つ知識17から現在の話題19に関連のあ
りそうな情報を取出して時には意外性のある意見21を
発言する。
家13の発言内容(専門的意見)について深く理解する
ことは一般的に不可能である。しかしその発言内容のう
ちから理解可能な断片を用いて自分なりにそれらの発言
を部分的/表面的理解15する。この場合、門外漢11
は専門家13の発言内容を誤解する場合もあり得る。そ
して、この部分的/表面的理解15を基に、門外漢11
は、自分の持つ知識17から現在の話題19に関連のあ
りそうな情報を取出して時には意外性のある意見21を
発言する。
【0027】もちろん浅い理解に基づく発言なので、こ
の内容はまるで的外れである可能性も十分にある。しか
し、ある場合にこの門外漢11が提供する一見異質で無
関係に見える意外性のある情報21が他の会議参加者1
3の誰かに現在の話題と結び付けられれば、そこから何
らかの新たな発見が得られる可能性がある。なぜなら
ば、「発想とは、全然性質の違う異質のデータの組合せ
から発見されるものである」からである。
の内容はまるで的外れである可能性も十分にある。しか
し、ある場合にこの門外漢11が提供する一見異質で無
関係に見える意外性のある情報21が他の会議参加者1
3の誰かに現在の話題と結び付けられれば、そこから何
らかの新たな発見が得られる可能性がある。なぜなら
ば、「発想とは、全然性質の違う異質のデータの組合せ
から発見されるものである」からである。
【0028】このような門外漢11が会議の話題や各参
加者の発言内容について深い理解を必要とせず、浅い理
解で十分であるとの観点から、後で説明する情報処理検
索装置でも文の意味の理解は避け、表層レベルでの処理
が行なわれる。もちろん文の意味が理解できればより有
効な場面も多いと思われるが、文の理解のためにはドメ
イン知識の構成などの難しい問題が多い。特に門外漢と
して別分野の知識を持ちつつ現在の話題に関する理解を
行なうような情報検索装置を構成することは非常に困難
と思われる。しかも出来上がった情報検索装置が特定分
野でしか対応できなくなる可能性が多い。これらが現在
意味理解を避けている主な理由である。
加者の発言内容について深い理解を必要とせず、浅い理
解で十分であるとの観点から、後で説明する情報処理検
索装置でも文の意味の理解は避け、表層レベルでの処理
が行なわれる。もちろん文の意味が理解できればより有
効な場面も多いと思われるが、文の理解のためにはドメ
イン知識の構成などの難しい問題が多い。特に門外漢と
して別分野の知識を持ちつつ現在の話題に関する理解を
行なうような情報検索装置を構成することは非常に困難
と思われる。しかも出来上がった情報検索装置が特定分
野でしか対応できなくなる可能性が多い。これらが現在
意味理解を避けている主な理由である。
【0029】また、キーワードの重み付けは明示的に行
なうことも基本的に避けられる。これは、ある情報のあ
るキーワードに対する重みが、そのときの議論のテーマ
に応じて変化すると予想されるためである。また、話題
の抽出や発言の意味理解が困難な状況、場面に応じた的
確な重み付けを行なうことが実質不可能と思われること
による。人間の対話の話題の変化や発想の飛躍が必ずし
も重みの大きいキーワードから行なわれているとは限ら
ないとも思われる。そこで、キーワードとして扱う単語
すべてが平等な重みで処理される。また、抽出される情
報の関連性は直接的な場合も、極めて間接的な場合もあ
り非常に幅広くなると思われる。これによって、非常に
発散的な情報が提供できる情報検索装置を提供すると思
われる。そこで、以下に装置について説明する。
なうことも基本的に避けられる。これは、ある情報のあ
るキーワードに対する重みが、そのときの議論のテーマ
に応じて変化すると予想されるためである。また、話題
の抽出や発言の意味理解が困難な状況、場面に応じた的
確な重み付けを行なうことが実質不可能と思われること
による。人間の対話の話題の変化や発想の飛躍が必ずし
も重みの大きいキーワードから行なわれているとは限ら
ないとも思われる。そこで、キーワードとして扱う単語
すべてが平等な重みで処理される。また、抽出される情
報の関連性は直接的な場合も、極めて間接的な場合もあ
り非常に幅広くなると思われる。これによって、非常に
発散的な情報が提供できる情報検索装置を提供すると思
われる。そこで、以下に装置について説明する。
【0030】図2は、この発明の一実施例による情報検
索装置の概略ブロック図である。図2を参照して、情報
検索装置23は、ユーザインタフェース25と、構文解
析部27と、想起情報抽出部29と、データベース31
とを含む。
索装置の概略ブロック図である。図2を参照して、情報
検索装置23は、ユーザインタフェース25と、構文解
析部27と、想起情報抽出部29と、データベース31
とを含む。
【0031】簡単に動作について説明する。データベー
ス31に登録されるべきたとえばニューズウィークのよ
うな記事(登録文)33が構文解析部27で単語に分解
されて構文解析される。また、記事33はデータベース
31に入力される。構文解析部27で構文解析された記
事23はキーワードベクトルとなり、想起情報抽出部2
9およびデータベース31にキーワードベクトルが入力
される。データベース31は、キーワードベクトルと記
事とを対応させて登録する。これにより、記事データベ
ース31が構築される。同時に、想起情報抽出部29
は、入力された記事に対応するキーワードベクトルを用
いて後で説明する連想記憶による検索意図と異なる想起
情報を抽出する。
ス31に登録されるべきたとえばニューズウィークのよ
うな記事(登録文)33が構文解析部27で単語に分解
されて構文解析される。また、記事33はデータベース
31に入力される。構文解析部27で構文解析された記
事23はキーワードベクトルとなり、想起情報抽出部2
9およびデータベース31にキーワードベクトルが入力
される。データベース31は、キーワードベクトルと記
事とを対応させて登録する。これにより、記事データベ
ース31が構築される。同時に、想起情報抽出部29
は、入力された記事に対応するキーワードベクトルを用
いて後で説明する連想記憶による検索意図と異なる想起
情報を抽出する。
【0032】次に、ある利用者が情報検索装置23と対
話するために、検索文35をユーザインタフェース25
に入力する。ここで、検索文35は、たとえば記事33
が英文テキストデータであれば、英文テキストデータと
なる。この検索文35は通常データベース検索に使用さ
れるようなキーワードの羅列、またはSQLのようなも
のである必要はなく、記事33と同じ通常のテキストデ
ータであればよい。ただし、キーワードの羅列でも問題
はない。
話するために、検索文35をユーザインタフェース25
に入力する。ここで、検索文35は、たとえば記事33
が英文テキストデータであれば、英文テキストデータと
なる。この検索文35は通常データベース検索に使用さ
れるようなキーワードの羅列、またはSQLのようなも
のである必要はなく、記事33と同じ通常のテキストデ
ータであればよい。ただし、キーワードの羅列でも問題
はない。
【0033】ユーザインタフェース25に入力された検
索文35は、記事33と同様に構文解析部27で単語に
分解され、キーワードベクトルとなる。キーワードベク
トルは、想起情報抽出部29に入力される。そして、こ
の入力されたキーワードベクトルが用いられて、想起情
報抽出部29が連想的な想起を行なう。この結果想起情
報抽出部29は何らかのキーワードベクトルを想起で
き、データベース31から想起されたキーワードベクト
ルと、データベース31に登録されている各記事のキー
ワードベクトルとが比較され、最も両者の一致している
記事が連想の末に得られる検索結果としてユーザインタ
フェース25に入力される。そして、利用者は、ユーザ
インタフェース25から記事の提供37を受ける。
索文35は、記事33と同様に構文解析部27で単語に
分解され、キーワードベクトルとなる。キーワードベク
トルは、想起情報抽出部29に入力される。そして、こ
の入力されたキーワードベクトルが用いられて、想起情
報抽出部29が連想的な想起を行なう。この結果想起情
報抽出部29は何らかのキーワードベクトルを想起で
き、データベース31から想起されたキーワードベクト
ルと、データベース31に登録されている各記事のキー
ワードベクトルとが比較され、最も両者の一致している
記事が連想の末に得られる検索結果としてユーザインタ
フェース25に入力される。そして、利用者は、ユーザ
インタフェース25から記事の提供37を受ける。
【0034】次に、より詳しく説明する。図3は、図2
の構文解析部27の動作を説明するための図である。
の構文解析部27の動作を説明するための図である。
【0035】構文解析部27は、記事33および検索文
35(以下では記事33についてのみ説明するが、検索
文35についてもキーワードベクトル化処理は全く同様
である)は、単語に分解して構文解析する。このとき、
同じ意味の単語は1つの代表単語に変換される。たとえ
ば、動詞はすべてその基本的現在形に変換される(e
x. was/am/isなどはbeに、gone/g
oing/goesはgoに変換される)。また、基本
的に同じ意味であるが、さまざまな品詞のある語は、そ
のうちのどれか1つの代表単語に変換される(ex.
abolishable/abolishment/a
bolisher/abolitionaboliti
onismなどはabolishに変換される)。
35(以下では記事33についてのみ説明するが、検索
文35についてもキーワードベクトル化処理は全く同様
である)は、単語に分解して構文解析する。このとき、
同じ意味の単語は1つの代表単語に変換される。たとえ
ば、動詞はすべてその基本的現在形に変換される(e
x. was/am/isなどはbeに、gone/g
oing/goesはgoに変換される)。また、基本
的に同じ意味であるが、さまざまな品詞のある語は、そ
のうちのどれか1つの代表単語に変換される(ex.
abolishable/abolishment/a
bolisher/abolitionaboliti
onismなどはabolishに変換される)。
【0036】そして、記事33はキーワードベクトル化
される。記事Ai のキーワードベクトルKi は第(1)
式のように構成される。第(1)式の要素kj は、単語
Wjが記事Ai に出現しているとき1、出現していない
とき0となる。つまり、記事のキーワードベクトルは、
ある単語がその記事に表われたか否かだけで構成されて
おり、ある記事のその記事における出現頻度、重要度な
どは全く考慮されていない。記事のキーワードベクトル
の長さnは、構文解析部27で処理したすべての記事に
出現した総単語種類数となり、新たな単語が出現するた
びにnの値は大きくなる。
される。記事Ai のキーワードベクトルKi は第(1)
式のように構成される。第(1)式の要素kj は、単語
Wjが記事Ai に出現しているとき1、出現していない
とき0となる。つまり、記事のキーワードベクトルは、
ある単語がその記事に表われたか否かだけで構成されて
おり、ある記事のその記事における出現頻度、重要度な
どは全く考慮されていない。記事のキーワードベクトル
の長さnは、構文解析部27で処理したすべての記事に
出現した総単語種類数となり、新たな単語が出現するた
びにnの値は大きくなる。
【0037】記事のキーワードベクトル化についてさら
に図3を用いて具体的に説明する。たとえば記事A1 が
An apple is sweet.であり、記事A
2 がI am a boy.である場合、単語W1 が
a、単語W2 がapple、単語W3 がbe、単語W4
がsweet、単語W5 がI、単語W6 がboyとな
り、キーワードベクトルの長さnは6となる。その結果
得られるキーワードベクトルK1 ,K2 は、K1 =(1
11100)、K2 =(101011)となる。
に図3を用いて具体的に説明する。たとえば記事A1 が
An apple is sweet.であり、記事A
2 がI am a boy.である場合、単語W1 が
a、単語W2 がapple、単語W3 がbe、単語W4
がsweet、単語W5 がI、単語W6 がboyとな
り、キーワードベクトルの長さnは6となる。その結果
得られるキーワードベクトルK1 ,K2 は、K1 =(1
11100)、K2 =(101011)となる。
【0038】次に、想起情報抽出部29の動作について
説明する。想起情報抽出部29の具体例としては、アソ
シアトロンがある。以下では、アソシアトロンを用いた
場合の想起情報抽出部29について説明する。
説明する。想起情報抽出部29の具体例としては、アソ
シアトロンがある。以下では、アソシアトロンを用いた
場合の想起情報抽出部29について説明する。
【0039】アソシアトロンでは、各記憶事項ごとにベ
クトルxの自己相関を表わす行列xx′が求められ、そ
の行列を加え合わせた行列Mが保持される。ただし、x
は縦ベクトル、x′はxの転置ベクトルである。この行
列Mが連想記憶行列である。したがって、この装置の場
合には、m個の記事のキーワードベクトルが記銘されて
得られる連想記憶行列Mは、第(2)式で与えられる。
なお、以下で使用するベクトルはすべて縦ベクトルとす
る。
クトルxの自己相関を表わす行列xx′が求められ、そ
の行列を加え合わせた行列Mが保持される。ただし、x
は縦ベクトル、x′はxの転置ベクトルである。この行
列Mが連想記憶行列である。したがって、この装置の場
合には、m個の記事のキーワードベクトルが記銘されて
得られる連想記憶行列Mは、第(2)式で与えられる。
なお、以下で使用するベクトルはすべて縦ベクトルとす
る。
【0040】次に、想起について説明する。検索文35
から得られたキーワードベクトルをQとするとき、想起
されるベクトルRは第(3)式で得られる。第(3)式
で、φ0 は第(4)式で示すような量子化関数であり、
φ* は第(5)式に示すような量子化関数である。この
φ0 ,φ* はベクトルおよび行列に対しても適用でき、
この場合はそのベクトルおよび行列が要素ごとに量子化
される。θの値が適切に選ばれることで、アソシアトロ
ンは無用なノイズなく記銘した情報をより正確に想起で
きる。
から得られたキーワードベクトルをQとするとき、想起
されるベクトルRは第(3)式で得られる。第(3)式
で、φ0 は第(4)式で示すような量子化関数であり、
φ* は第(5)式に示すような量子化関数である。この
φ0 ,φ* はベクトルおよび行列に対しても適用でき、
この場合はそのベクトルおよび行列が要素ごとに量子化
される。θの値が適切に選ばれることで、アソシアトロ
ンは無用なノイズなく記銘した情報をより正確に想起で
きる。
【0041】想起について具体的に説明する。図3に示
したキーワードベクトルK1 ,K2を記銘した場合、連
想記憶行列Mは第(6)式のようになる。データベース
31にキーワードベクトルK1 ,K2 が記銘されている
状態で、利用者が「Boyslike sweet a
pples」という検索文を入力したとする。このと
き、likeはすでに記銘されている記事中に表われて
いないので、単語数n=7、単語W7 “like”と
し、検索文のキーワードベクトルQが第(7)式のよう
に作成される。なお、転置を表わす記号′は、このよう
にベクトルを表わす小括弧にも適用できるものとする。
これにより、キーワードベクトルK1 ,K 2 は、それぞ
れ第(8)式および第(9)式のように拡張される。同
時に、連想記憶行列Mも第(10)式のように拡張され
る。
したキーワードベクトルK1 ,K2を記銘した場合、連
想記憶行列Mは第(6)式のようになる。データベース
31にキーワードベクトルK1 ,K2 が記銘されている
状態で、利用者が「Boyslike sweet a
pples」という検索文を入力したとする。このと
き、likeはすでに記銘されている記事中に表われて
いないので、単語数n=7、単語W7 “like”と
し、検索文のキーワードベクトルQが第(7)式のよう
に作成される。なお、転置を表わす記号′は、このよう
にベクトルを表わす小括弧にも適用できるものとする。
これにより、キーワードベクトルK1 ,K 2 は、それぞ
れ第(8)式および第(9)式のように拡張される。同
時に、連想記憶行列Mも第(10)式のように拡張され
る。
【0042】このキーワードベクトルQと連想記憶行列
MからベクトルRが想起される。すなわち、第(11)
式に示すφ0 (M)Qが得られるので、θ=1とするこ
とによって想起されるベクトルRは、第(12)式とな
る。この想起されたベクトルRは、キーワードベクトル
K1 に一致している。すなわち、「Boys like
sweet apples」という入力に対して記事
A1 の「An apple is sweet」が想起
されたことになる。
MからベクトルRが想起される。すなわち、第(11)
式に示すφ0 (M)Qが得られるので、θ=1とするこ
とによって想起されるベクトルRは、第(12)式とな
る。この想起されたベクトルRは、キーワードベクトル
K1 に一致している。すなわち、「Boys like
sweet apples」という入力に対して記事
A1 の「An apple is sweet」が想起
されたことになる。
【0043】結果的に重要なことは、boy,lik
e,sweet,appleという4つのキーワードに
対して、その結合をandでもorでもない中間的な結
合によって検索が行なわれ、最終的にただ1つの検索結
果が得られていることである。
e,sweet,appleという4つのキーワードに
対して、その結合をandでもorでもない中間的な結
合によって検索が行なわれ、最終的にただ1つの検索結
果が得られていることである。
【0044】仮に、これらのキーワードすべてがand
条件で結ばれれば、記事A1 ,A2のいずれも検索結果
として取出されない。また、すべてをor条件で結べ
ば、両方の記事が検索結果として取出されてしまう。実
際の使用においては、多くの記事が記銘され、より長い
文章による検索文が入力された場合に、and条件では
おそらく1つの記事も抽出されず、逆にor条件では膨
大な数の記事が抽出されると予想される。このように、
情報が1つも抽出されなければ装置が役に立たず、逆に
大量に抽出されるものも発想者の思考の妨害となり好ま
しくない。
条件で結ばれれば、記事A1 ,A2のいずれも検索結果
として取出されない。また、すべてをor条件で結べ
ば、両方の記事が検索結果として取出されてしまう。実
際の使用においては、多くの記事が記銘され、より長い
文章による検索文が入力された場合に、and条件では
おそらく1つの記事も抽出されず、逆にor条件では膨
大な数の記事が抽出されると予想される。このように、
情報が1つも抽出されなければ装置が役に立たず、逆に
大量に抽出されるものも発想者の思考の妨害となり好ま
しくない。
【0045】一方、本装置では、文章がキーワードベク
トル化されることによって1種のドットパターンとして
扱われ、検索文から得られるパターンと類似したパター
ンを持つ記事が想起される、パターン認識的な検索処理
が行なわれている。したがって、一部のキーワードは自
動的に削除され、逆に一部のキーワードが自動的に追加
されることになる。これによって、検索生成の自動化が
実現されるとともに、抽出される記事が1つに絞り込ま
れるので、発想者の思考が妨害されない効果が得られ
る。
トル化されることによって1種のドットパターンとして
扱われ、検索文から得られるパターンと類似したパター
ンを持つ記事が想起される、パターン認識的な検索処理
が行なわれている。したがって、一部のキーワードは自
動的に削除され、逆に一部のキーワードが自動的に追加
されることになる。これによって、検索生成の自動化が
実現されるとともに、抽出される記事が1つに絞り込ま
れるので、発想者の思考が妨害されない効果が得られ
る。
【0046】また、記事中に表われる単語に重み付けが
行なわれずすべて等価に扱われているので、ある記事の
意味内容の確信を示す重要語(一般に言うキーワード)
のみならず非重要語による記事抽出も行なわれる。これ
は、検索意図と異なる意外性のある情報の獲得に有効で
ある。なお、検索意図と異なる情報が得られるのであれ
ば、単語に重み付けが行なわれてもよい。
行なわれずすべて等価に扱われているので、ある記事の
意味内容の確信を示す重要語(一般に言うキーワード)
のみならず非重要語による記事抽出も行なわれる。これ
は、検索意図と異なる意外性のある情報の獲得に有効で
ある。なお、検索意図と異なる情報が得られるのであれ
ば、単語に重み付けが行なわれてもよい。
【0047】通常のデータベース検索では検索結果の適
合率、再現率といった「いかに求めている情報と一致し
たものが検索されたか」が重要視されるが、この装置で
は、「検索意図と異なる意外性のある情報」を求めてい
るので適合率、再現率の評価は必要ない。
合率、再現率といった「いかに求めている情報と一致し
たものが検索されたか」が重要視されるが、この装置で
は、「検索意図と異なる意外性のある情報」を求めてい
るので適合率、再現率の評価は必要ない。
【0048】さらに、似たような単語の多く出現する文
章が多数記憶された場合、完全に一致する1つのキーワ
ードベクトルが想起されることは困難となる。すなわ
ち、想起されるベクトルに若干のノイズ要素が含まれる
ことになる。そこで、実際の利用での最終的なキー抽出
は、想起されたベクトルと各記事のキーワードベクトル
の相互相関の高いものが取出されればよい。すなわち、
想起情報抽出部29は、第(13)式に示す相互相関r
i を求め、その相互相関の高いキーワードベクトルを取
出すことを行なえばよい。第(13)式でnR は想起さ
れたベクトルRの要素のうち値が1のものの個数、nKi
はキーワードベクトルKi の要素のうち値が1のものの
個数である。また演算子・はベクトルの内積を示す。
章が多数記憶された場合、完全に一致する1つのキーワ
ードベクトルが想起されることは困難となる。すなわ
ち、想起されるベクトルに若干のノイズ要素が含まれる
ことになる。そこで、実際の利用での最終的なキー抽出
は、想起されたベクトルと各記事のキーワードベクトル
の相互相関の高いものが取出されればよい。すなわち、
想起情報抽出部29は、第(13)式に示す相互相関r
i を求め、その相互相関の高いキーワードベクトルを取
出すことを行なえばよい。第(13)式でnR は想起さ
れたベクトルRの要素のうち値が1のものの個数、nKi
はキーワードベクトルKi の要素のうち値が1のものの
個数である。また演算子・はベクトルの内積を示す。
【0049】なお、より高い異質性を持つ情報を必要と
する場合には、この相互相関の値が所定の値より低いよ
うな情報が取出されて提供されればよい。ただし、この
場合にもあまりにも相互相関の値の低いものは関連性が
極端に弱いと思われるので、必要ならばある所定の値よ
り低いような情報が提供されないようにしてもよい。
する場合には、この相互相関の値が所定の値より低いよ
うな情報が取出されて提供されればよい。ただし、この
場合にもあまりにも相互相関の値の低いものは関連性が
極端に弱いと思われるので、必要ならばある所定の値よ
り低いような情報が提供されないようにしてもよい。
【0050】
【数1】
【0051】
【数2】
【0052】ところで、図2に示した構文解析部27で
は、冠詞や指示代名詞などの、それだけでは一般にほと
んど無意味な語もキーワードとして取出される。このよ
うな語はほとんどの文章に含まれるため、これら以外の
何らかの具体的な意味のある語が他にキーワードとして
含まれていれば、実質そのような意味のある語によって
検索が行なわれる。しかし、検索文に含まれる意味のあ
るキーワードが、データベース31中のどの記事にも含
まれない場合、冠詞や指示代名詞などの無意味語による
検索が行なわれてしまう。そして、ある検索が意味のあ
る語によってなされたものであるかまたはそうでないの
かの自動的判定が困難となる。
は、冠詞や指示代名詞などの、それだけでは一般にほと
んど無意味な語もキーワードとして取出される。このよ
うな語はほとんどの文章に含まれるため、これら以外の
何らかの具体的な意味のある語が他にキーワードとして
含まれていれば、実質そのような意味のある語によって
検索が行なわれる。しかし、検索文に含まれる意味のあ
るキーワードが、データベース31中のどの記事にも含
まれない場合、冠詞や指示代名詞などの無意味語による
検索が行なわれてしまう。そして、ある検索が意味のあ
る語によってなされたものであるかまたはそうでないの
かの自動的判定が困難となる。
【0053】具体的に説明する。データベース31に、
記事A1 :A pen is used to wri
te.と、記事A2 :A horse is runn
ing.と、記事A3 :Which is a hor
se?とが登録されているとする。検索文として、Th
is is a pen.が入力されると、記事A1と
の間でpen,be,aの3つ、記事A2 との間でa,
beの2つ、記事A3との間でbe,aの2つが一致す
る。その結果、記事A1 が検索結果として得られる。つ
まり、penという意味のある語によって記事A1 が選
ばれたことになる。ところが、たとえば検索文としてW
hich is a pen?が入力されると、記事A
1 との間で3つ、記事A3 との間で3つのキーワードが
一致する。したがって、記事A1 と記事A3 とが区別で
きず、実際には記事A1 が結果として選ばれるべきであ
るのに決定できないという欠点がある。
記事A1 :A pen is used to wri
te.と、記事A2 :A horse is runn
ing.と、記事A3 :Which is a hor
se?とが登録されているとする。検索文として、Th
is is a pen.が入力されると、記事A1と
の間でpen,be,aの3つ、記事A2 との間でa,
beの2つ、記事A3との間でbe,aの2つが一致す
る。その結果、記事A1 が検索結果として得られる。つ
まり、penという意味のある語によって記事A1 が選
ばれたことになる。ところが、たとえば検索文としてW
hich is a pen?が入力されると、記事A
1 との間で3つ、記事A3 との間で3つのキーワードが
一致する。したがって、記事A1 と記事A3 とが区別で
きず、実際には記事A1 が結果として選ばれるべきであ
るのに決定できないという欠点がある。
【0054】次に、上記のような欠点を解決した他の実
施例について説明する。図4は、この発明の他の実施例
による情報検索装置の概略ブロック図である。
施例について説明する。図4は、この発明の他の実施例
による情報検索装置の概略ブロック図である。
【0055】この実施例の情報検索装置39は、記事4
1およびユーザインタフェース25を介して入力される
検索文53を構文解析する構文解析部43と、構文解析
部43で変更されたキーワードベクトルに応じて情報の
想起を行なう想起情報抽出部45と、ユーザインタフェ
ース25を介して記事の提供55を行なうデータベース
31とを含む。さらに、想起情報抽出部45は、連想記
憶を行なう連想記憶部47と、キーワードフィルタ49
と、データベース管理部51とを含む。
1およびユーザインタフェース25を介して入力される
検索文53を構文解析する構文解析部43と、構文解析
部43で変更されたキーワードベクトルに応じて情報の
想起を行なう想起情報抽出部45と、ユーザインタフェ
ース25を介して記事の提供55を行なうデータベース
31とを含む。さらに、想起情報抽出部45は、連想記
憶を行なう連想記憶部47と、キーワードフィルタ49
と、データベース管理部51とを含む。
【0056】動作について簡単に説明する。データベー
ス31を構築する場合は、登録する記事41が構文解析
部43に入力されて、キーワードベクトルに変更され
る。このキーワードベクトルが連想記憶部47に入力さ
れ、連想記憶部(一例としてアソシアトロン)47で連
想記憶される。同時に、キーワードベクトルと記事41
とが対応付けられてデータベース31に登録される。
ス31を構築する場合は、登録する記事41が構文解析
部43に入力されて、キーワードベクトルに変更され
る。このキーワードベクトルが連想記憶部47に入力さ
れ、連想記憶部(一例としてアソシアトロン)47で連
想記憶される。同時に、キーワードベクトルと記事41
とが対応付けられてデータベース31に登録される。
【0057】次に、本装置が門外漢として使用される場
合について説明する。この場合、実際の使用に先立って
上述した手順でデータベース31が構築されている。記
事41にある程度の指向性が持たされるため、利用者は
まず始めにユーザインタフェース25を介して会議のテ
ーマ、各自の興味をテキストで入力する。これは、キー
ワードのリストでもかまわないし、通常の文でもかまわ
ない。続いて、利用者は自分の意見をテキストで入力す
る。
合について説明する。この場合、実際の使用に先立って
上述した手順でデータベース31が構築されている。記
事41にある程度の指向性が持たされるため、利用者は
まず始めにユーザインタフェース25を介して会議のテ
ーマ、各自の興味をテキストで入力する。これは、キー
ワードのリストでもかまわないし、通常の文でもかまわ
ない。続いて、利用者は自分の意見をテキストで入力す
る。
【0058】入力された意見とテーマおよびその意見の
発話者の興味は、構文解析部43でキーワードベクトル
に変換される。このキーワードベクトルから、連想記憶
部47は何らかのキーワードベクトルを想起する。
発話者の興味は、構文解析部43でキーワードベクトル
に変換される。このキーワードベクトルから、連想記憶
部47は何らかのキーワードベクトルを想起する。
【0059】データベース管理部51は、各会議参加者
の記事提供履歴57を参照しながら、想起されたキーワ
ードベクトルと、データベース31に登録されている各
記事のキーワードベクトルとの相互相関を図2に示した
実施例と同様な方法で計算し、相関値の高い記事を抽出
し、データベース31からユーザインタフェース25を
介して利用者に記事の提供55を行なう。
の記事提供履歴57を参照しながら、想起されたキーワ
ードベクトルと、データベース31に登録されている各
記事のキーワードベクトルとの相互相関を図2に示した
実施例と同様な方法で計算し、相関値の高い記事を抽出
し、データベース31からユーザインタフェース25を
介して利用者に記事の提供55を行なう。
【0060】また、キーワードフィルタ49は、検索文
53のキーワードベクトルと想起されたキーワードベク
トル、または抽出された記事のキーワードベクトルとを
用いてキーワードベクトルをモディファイする。このモ
ディファイされたベクトルによって再想起が行なわれ、
より発散的な情報の抽出が試みられる。
53のキーワードベクトルと想起されたキーワードベク
トル、または抽出された記事のキーワードベクトルとを
用いてキーワードベクトルをモディファイする。このモ
ディファイされたベクトルによって再想起が行なわれ、
より発散的な情報の抽出が試みられる。
【0061】次に、各実験について説明するために、各
構成について詳細に説明する。ユーザインタフェース2
5について説明する。ユーザインタフェース25は、単
独利用者用と複数利用者用の2種類が用意されている。
構成について詳細に説明する。ユーザインタフェース2
5について説明する。ユーザインタフェース25は、単
独利用者用と複数利用者用の2種類が用意されている。
【0062】単独利用者用インタフェースでは、利用者
は必要に応じたメニューを選び、テーマおよび興味を登
録し、意見を入力する。記事の抽出方法は3種類(比較
実験も含めると5種類)準備されている。このことにつ
いては、後で連想記憶およびキーワードフィルタのとこ
ろで詳しく説明する。利用者は意見を入力した後連続し
ていずれかの記事抽出方法を指定することによって、連
続して記事を参照できる。
は必要に応じたメニューを選び、テーマおよび興味を登
録し、意見を入力する。記事の抽出方法は3種類(比較
実験も含めると5種類)準備されている。このことにつ
いては、後で連想記憶およびキーワードフィルタのとこ
ろで詳しく説明する。利用者は意見を入力した後連続し
ていずれかの記事抽出方法を指定することによって、連
続して記事を参照できる。
【0063】複数利用者用ユーザインタフェースには、
パブリックドメインのソフトウェアであるphoneが
改造されたものが使用された。phoneは複数の人間
によるリアルタイムチャートのソフトウェアである。1
つの画面は参加者数分のウィンドウに区切られ、参加者
の発言内容はそれぞれに固有に割当てられたウィンドウ
に表示される。各参加者の発言内容は本装置に入力さ
れ、連想想起された抽出された記事が本装置用のウィン
ドウに表示される。このユーザインタフェース25を使
用することによって、門外漢を加えた数人による簡単な
会議が行なわれる。
パブリックドメインのソフトウェアであるphoneが
改造されたものが使用された。phoneは複数の人間
によるリアルタイムチャートのソフトウェアである。1
つの画面は参加者数分のウィンドウに区切られ、参加者
の発言内容はそれぞれに固有に割当てられたウィンドウ
に表示される。各参加者の発言内容は本装置に入力さ
れ、連想想起された抽出された記事が本装置用のウィン
ドウに表示される。このユーザインタフェース25を使
用することによって、門外漢を加えた数人による簡単な
会議が行なわれる。
【0064】次に、構文解析部43について説明する。
この構文解析部43は、まず入力された記事41または
検索文53を単語に分解し、各単語を正規形に戻す。正
規形とは、たとえば動詞ならその基本形(日本語なら終
止形、英語なら現在形)、名詞なら単数形のことであ
る。そして、簡単な構文解析によって各単語の品詞を決
定する。ただし、文の意味理解は求められていないの
で、この品詞決定はあまり正確なものである必要はな
い。むしろ処理速度の向上のためにアルゴリズムが簡素
化されている。この解析の結果、文に出現した単語は品
詞付リストとして出力される。
この構文解析部43は、まず入力された記事41または
検索文53を単語に分解し、各単語を正規形に戻す。正
規形とは、たとえば動詞ならその基本形(日本語なら終
止形、英語なら現在形)、名詞なら単数形のことであ
る。そして、簡単な構文解析によって各単語の品詞を決
定する。ただし、文の意味理解は求められていないの
で、この品詞決定はあまり正確なものである必要はな
い。むしろ処理速度の向上のためにアルゴリズムが簡素
化されている。この解析の結果、文に出現した単語は品
詞付リストとして出力される。
【0065】このリストからキーワードベクトルが生成
される。まず、リストから名詞(代名詞を除く)と、品
詞同定不能であった単語のみが取出されて単語リストの
サブセットが作られる。すなわち、取出される単語の条
件は、特定の品詞の単語であるか否かである。このよう
に特定の品詞のみが取出されるのは、図2に示した構文
解析部27とは異なる。このような2種類の単語が選択
された理由の1つは、表層処理による話題抽出の研究に
見られるように、一般に文の話題候補はその文に表れる
名詞(句)となることである。また他の理由は、実際に
いくつかの記事に対して構文解析処理が行なわれてみた
結果、品詞同定不能の単語には分野に依存した専門的な
単語や特殊な単語が表われ、文の内容にとって比較的重
要なものが多く含まれると思われたことによる。
される。まず、リストから名詞(代名詞を除く)と、品
詞同定不能であった単語のみが取出されて単語リストの
サブセットが作られる。すなわち、取出される単語の条
件は、特定の品詞の単語であるか否かである。このよう
に特定の品詞のみが取出されるのは、図2に示した構文
解析部27とは異なる。このような2種類の単語が選択
された理由の1つは、表層処理による話題抽出の研究に
見られるように、一般に文の話題候補はその文に表れる
名詞(句)となることである。また他の理由は、実際に
いくつかの記事に対して構文解析処理が行なわれてみた
結果、品詞同定不能の単語には分野に依存した専門的な
単語や特殊な単語が表われ、文の内容にとって比較的重
要なものが多く含まれると思われたことによる。
【0066】なお、後で説明するように実験で示した記
事は商用のものであるので、品詞同定不能語によるミス
スペル単語はほとんど含まれていない。
事は商用のものであるので、品詞同定不能語によるミス
スペル単語はほとんど含まれていない。
【0067】こうして抽出された特定の品詞の単語によ
りキーワードベクトルが生成される。記事Ai のキーワ
ードベクトルKi は、前述したように第(1)式で生成
される。ただし、第(1)式で1をセットする要素は、
その記事あるいは発言に出現する順に採用し、その個数
は1記事・発言あたり最大50個に制限されている。こ
れは、主に処理速度と後述するアソシアトロンの想起の
正確さとの要請による。
りキーワードベクトルが生成される。記事Ai のキーワ
ードベクトルKi は、前述したように第(1)式で生成
される。ただし、第(1)式で1をセットする要素は、
その記事あるいは発言に出現する順に採用し、その個数
は1記事・発言あたり最大50個に制限されている。こ
れは、主に処理速度と後述するアソシアトロンの想起の
正確さとの要請による。
【0068】また、後で説明するように、実験で使用し
た記事はいわゆる新聞記事と同様なものであるので、そ
の主な内容はその記事の最初の部分にあることから、こ
の程度の採用数でよいとされた。この採用数が変えられ
ることで、抽出記事の関連性や意外性が変化する可能性
はある。
た記事はいわゆる新聞記事と同様なものであるので、そ
の主な内容はその記事の最初の部分にあることから、こ
の程度の採用数でよいとされた。この採用数が変えられ
ることで、抽出記事の関連性や意外性が変化する可能性
はある。
【0069】このキーワードベクトル生成処理におい
て、各名詞および品詞同定不能単語の重要度や出現頻度
などは一切考慮されていない。これは、文中のその文の
内容にとって重要でない単語もいわゆる重要と同等のキ
ーワードとして扱うことによって、関連はあるが、同時
に検索意図と異なる異質な情報が得られることを期待し
たことによる。
て、各名詞および品詞同定不能単語の重要度や出現頻度
などは一切考慮されていない。これは、文中のその文の
内容にとって重要でない単語もいわゆる重要と同等のキ
ーワードとして扱うことによって、関連はあるが、同時
に検索意図と異なる異質な情報が得られることを期待し
たことによる。
【0070】このことについて具体的に説明する。たと
えば、記事A1 :A pen isused to w
rite.と、記事A2 :A horse is ru
nning.と、記事A3 :Which is a h
orse?とがデータベース31に登録されていたとす
る。実験と異なるが特定の品詞として名詞とbe動詞以
外の動詞が選択された場合であって、検索文としてWh
ich is apen?が入力されると、選択される
べき記事A1 が抽出されることになる。
えば、記事A1 :A pen isused to w
rite.と、記事A2 :A horse is ru
nning.と、記事A3 :Which is a h
orse?とがデータベース31に登録されていたとす
る。実験と異なるが特定の品詞として名詞とbe動詞以
外の動詞が選択された場合であって、検索文としてWh
ich is apen?が入力されると、選択される
べき記事A1 が抽出されることになる。
【0071】次に、連想記憶部47について説明する。
この連想記憶部47は、図2に示した実施例における説
明と同様となるが、意外な情報を獲得するために本質的
にこの装置に必要とされるものであるため、再度詳しく
説明する。
この連想記憶部47は、図2に示した実施例における説
明と同様となるが、意外な情報を獲得するために本質的
にこの装置に必要とされるものであるため、再度詳しく
説明する。
【0072】まず記銘の方法について説明する。連想記
憶部47として用いたアソシアトロンでは、ベクトルの
自己相関行列を積算した連想記憶マトリクスを生成する
ことによって記銘を行なう。m個の記事のキーワードベ
クトルKi (1≦i≦m)の記銘は、第(2)式のよう
にして行なわれる。
憶部47として用いたアソシアトロンでは、ベクトルの
自己相関行列を積算した連想記憶マトリクスを生成する
ことによって記銘を行なう。m個の記事のキーワードベ
クトルKi (1≦i≦m)の記銘は、第(2)式のよう
にして行なわれる。
【0073】次に、想起の手順について説明する。検索
文53から得られたキーワードベクトルQにより、想起
されるキーワードベクトルRは、第(3)式で得られ
た。
文53から得られたキーワードベクトルQにより、想起
されるキーワードベクトルRは、第(3)式で得られ
た。
【0074】そして、第(5)式のθの値が適切に選ば
れることにより、アソシアトロンは記銘した情報をより
正確に想起する。
れることにより、アソシアトロンは記銘した情報をより
正確に想起する。
【0075】なお、アソシアトロンは、第(4)式およ
び第(5)式に示すように、−1,0,1の3値理論と
なっているが、この装置では、0,1だけの2値化論理
で記銘・想起が行なわれている。また、θの値は、1に
なる要素数が50かそれ以下で50にできるだけ小さく
なるように想起ごとに決定されている。
び第(5)式に示すように、−1,0,1の3値理論と
なっているが、この装置では、0,1だけの2値化論理
で記銘・想起が行なわれている。また、θの値は、1に
なる要素数が50かそれ以下で50にできるだけ小さく
なるように想起ごとに決定されている。
【0076】すなわち、アソシアトロンは記銘したベク
トルの一部からそのベクトル全体を想起する。したがっ
て、記銘した記事の一部の単語から、その記事に表われ
た他の単語を想起することになる。つまり、シソーラス
的な同義関係に区切らず、1つの文に同時に表われる単
語には相互に何らかの関係があると見なしていることに
よる。
トルの一部からそのベクトル全体を想起する。したがっ
て、記銘した記事の一部の単語から、その記事に表われ
た他の単語を想起することになる。つまり、シソーラス
的な同義関係に区切らず、1つの文に同時に表われる単
語には相互に何らかの関係があると見なしていることに
よる。
【0077】多くの記事を記銘させることによって得ら
れる連想記憶行列は、このような単語の相互関係のネッ
トワークを表わしている。これはボトムアップ的に構成
された1種の知識と見なされる。
れる連想記憶行列は、このような単語の相互関係のネッ
トワークを表わしている。これはボトムアップ的に構成
された1種の知識と見なされる。
【0078】入力される検索文53のキーワードベクト
ルとデータベース31に蓄えられた記事41のキーワー
ドベクトルとの相関が直接計算されず、間に連想記憶が
介されている理由がここにある。すなわち、入力された
検索文53に表われる単語から一旦連想が行なわれるこ
とによって使用されるキーワードの幅が広げられ、その
広げられたキーワードが用いられて検索が行なわれる。
これによって、入力された検索文に表われるキーワード
と直接関連しない、しかし間接的に関連するような連想
度合が所定の範囲内の「異質な情報」の獲得が期待され
る。
ルとデータベース31に蓄えられた記事41のキーワー
ドベクトルとの相関が直接計算されず、間に連想記憶が
介されている理由がここにある。すなわち、入力された
検索文53に表われる単語から一旦連想が行なわれるこ
とによって使用されるキーワードの幅が広げられ、その
広げられたキーワードが用いられて検索が行なわれる。
これによって、入力された検索文に表われるキーワード
と直接関連しない、しかし間接的に関連するような連想
度合が所定の範囲内の「異質な情報」の獲得が期待され
る。
【0079】記銘させる情報分野を限定すれば、その分
野に応じた特殊なネットワークが出来上がる。たとえ
ば、生物分野に限定した情報のみが記銘されれば、生物
分野に応じた関係知識(たとえばcallという単語は
主に細胞関係の単語群と関連する)が、構成される。こ
れに対し、電気分野に限定された情報のみが記銘されれ
ば、電気分野に応じた関係知識(たとえばcallとい
う単語は主に電池関係の単語群と関連する)が構成され
る。
野に応じた特殊なネットワークが出来上がる。たとえ
ば、生物分野に限定した情報のみが記銘されれば、生物
分野に応じた関係知識(たとえばcallという単語は
主に細胞関係の単語群と関連する)が、構成される。こ
れに対し、電気分野に限定された情報のみが記銘されれ
ば、電気分野に応じた関係知識(たとえばcallとい
う単語は主に電池関係の単語群と関連する)が構成され
る。
【0080】この機能が用いられれば、たとえばコンピ
ュータ科学者が集まってコンピュータと生物の関連に関
するブレインストーミングが行なわれた場合、予め生物
関連の情報が記銘されて、仮想的な生物学の専門家が構
成される。この構成された仮想的な生物学の専門家を会
議に参加させることによって、コンピュータ科学者の提
供するコンピュータ関連の情報から生物関係方面の話題
や発想の広がりが期待される。
ュータ科学者が集まってコンピュータと生物の関連に関
するブレインストーミングが行なわれた場合、予め生物
関連の情報が記銘されて、仮想的な生物学の専門家が構
成される。この構成された仮想的な生物学の専門家を会
議に参加させることによって、コンピュータ科学者の提
供するコンピュータ関連の情報から生物関係方面の話題
や発想の広がりが期待される。
【0081】次に、キーワードフィルタ49について説
明する。連想記憶を用いることにより、抽出情報の発散
が期待される。しかし、現実にはこの連想記憶が単純に
用いられただけでは発想の飛躍は起こり難いと予想され
る。比較的少しずつ抽出情報が発散させられることは可
能だが、人間同士の対話に見られるような話題の飛躍は
実現困難であろうと思われる。そこで、話題の飛躍のた
めに2種のキーワードフィルタが用いられる。
明する。連想記憶を用いることにより、抽出情報の発散
が期待される。しかし、現実にはこの連想記憶が単純に
用いられただけでは発想の飛躍は起こり難いと予想され
る。比較的少しずつ抽出情報が発散させられることは可
能だが、人間同士の対話に見られるような話題の飛躍は
実現困難であろうと思われる。そこで、話題の飛躍のた
めに2種のキーワードフィルタが用いられる。
【0082】まず差分フィルタについて説明する。差分
フィルタは、検索キーワードベクトルと想起キーワード
ベクトルとの差分を求める。
フィルタは、検索キーワードベクトルと想起キーワード
ベクトルとの差分を求める。
【0083】最初の検索文のキーワードベクトルをQ0
とするとき、提供済キーワードベクトルPi は、第(1
4)式および第(15)式で定義されるとする。ここ
で、第(15)式の+はベクトルの要素ごとの論理和を
示す。このとき、i+1番目の検索キーワードベクトル
Qi+1 は第(16)式で与えられる。第(16)式にお
いて、Ki はQi による検索で得られた記事のキーワー
ドベクトルである。また、Tは最初に設定されたテーマ
と興味だけから生成したキーワードベクトルである。演
算子*は論理積であり、演算子!は否定である。このQ
i+1 が用いられてi+1番目の記事が抽出される。
とするとき、提供済キーワードベクトルPi は、第(1
4)式および第(15)式で定義されるとする。ここ
で、第(15)式の+はベクトルの要素ごとの論理和を
示す。このとき、i+1番目の検索キーワードベクトル
Qi+1 は第(16)式で与えられる。第(16)式にお
いて、Ki はQi による検索で得られた記事のキーワー
ドベクトルである。また、Tは最初に設定されたテーマ
と興味だけから生成したキーワードベクトルである。演
算子*は論理積であり、演算子!は否定である。このQ
i+1 が用いられてi+1番目の記事が抽出される。
【0084】この差分フィルタでは、過去に検索キーワ
ードベクトルに使用した単語は、テーマと興味として設
定された単語以外は二度と使用されない。
ードベクトルに使用した単語は、テーマと興味として設
定された単語以外は二度と使用されない。
【0085】このフィルタリングによって、ある記事か
らその記事に表われた新しい単語をトリガとして新たな
話題へと抽出される記事が早く変化するのではないかと
思われる。
らその記事に表われた新しい単語をトリガとして新たな
話題へと抽出される記事が早く変化するのではないかと
思われる。
【0086】
【数3】
【0087】次に、弱連想フィルタについて説明する。
図5は、弱連想フィルタを説明するための図である。特
に、図5(a)は、通常のアソシアトロンにおける想起
を説明するための図であり、図5(b)は、弱連想フィ
ルタによるアソシアトロンの想起を説明するための図で
ある。さらに、図5(a)および図5(b)における横
軸は要素番号を示し、縦軸は要素の値を示す。まず、図
2に示した実施例で詳しく説明したように、想起される
ベクトルRは、第(3)式で得られる。そして、第
(3)式のφ* は、第(5)式で定義されている。した
がって、通常のアソシアトロンにおける想起では、しき
い値θよりも大きな値をとった要素の値を1としてい
た。すなわち、たとえば第(11)式における左辺の要
素を0112233のように小さい順から並べて、図5
(a)に示すようなグラフを作成し、必要な個数aを設
定することで、しきい値θが決定されている。
図5は、弱連想フィルタを説明するための図である。特
に、図5(a)は、通常のアソシアトロンにおける想起
を説明するための図であり、図5(b)は、弱連想フィ
ルタによるアソシアトロンの想起を説明するための図で
ある。さらに、図5(a)および図5(b)における横
軸は要素番号を示し、縦軸は要素の値を示す。まず、図
2に示した実施例で詳しく説明したように、想起される
ベクトルRは、第(3)式で得られる。そして、第
(3)式のφ* は、第(5)式で定義されている。した
がって、通常のアソシアトロンにおける想起では、しき
い値θよりも大きな値をとった要素の値を1としてい
た。すなわち、たとえば第(11)式における左辺の要
素を0112233のように小さい順から並べて、図5
(a)に示すようなグラフを作成し、必要な個数aを設
定することで、しきい値θが決定されている。
【0088】しかし、弱連想フィルタは、図5(b)に
示すようなグラフを作成してθU とθL を決定する。す
なわち、a個の幅が要素番号に対してとられ、その両端
a1,a2 のグラフの縦軸の値がθL ,θU となる。そ
して、2つのしきい値θL ,θU が定められて、θL 以
上θU 以下の値をとった要素が1とされ、それ以外が0
とされてベクトルが構成される。幅aに対する両端のa
1 ,a2 が左右に移動されることで、しきい値θL ,θ
U の値が可変となり、抽出される記事の異質性が制御さ
れる。
示すようなグラフを作成してθU とθL を決定する。す
なわち、a個の幅が要素番号に対してとられ、その両端
a1,a2 のグラフの縦軸の値がθL ,θU となる。そ
して、2つのしきい値θL ,θU が定められて、θL 以
上θU 以下の値をとった要素が1とされ、それ以外が0
とされてベクトルが構成される。幅aに対する両端のa
1 ,a2 が左右に移動されることで、しきい値θL ,θ
U の値が可変となり、抽出される記事の異質性が制御さ
れる。
【0089】このように、弱連想フィルタは、強く想起
されたキーワードが捨てられ、弱く想起されたキーワー
ドは取込まれるフィルタである。
されたキーワードが捨てられ、弱く想起されたキーワー
ドは取込まれるフィルタである。
【0090】次に、データベース管理部51について説
明する。データベース管理部51は、まず想起されたベ
クトルRと、データベース31に登録されている各記事
のキーワードベクトルとの相互相関を計算する。その相
互相関は、第(13)式で得られる。
明する。データベース管理部51は、まず想起されたベ
クトルRと、データベース31に登録されている各記事
のキーワードベクトルとの相互相関を計算する。その相
互相関は、第(13)式で得られる。
【0091】この結果、相互相関の値の最も高かった記
事ベクトルに対応する記事が提供候補とされる。このよ
うな検索によって、キーワードは通常のデータベース検
索で用いられるandでもorでもない中間的な条件で
組合される。
事ベクトルに対応する記事が提供候補とされる。このよ
うな検索によって、キーワードは通常のデータベース検
索で用いられるandでもorでもない中間的な条件で
組合される。
【0092】なお、このデータベース管理部51は、各
参加者について過去に提供した記事の履歴情報57を持
っており、すべての参加者に対してすでに提供したこと
のある記事については初めから候補外としてこの相互相
関を計算しない。
参加者について過去に提供した記事の履歴情報57を持
っており、すべての参加者に対してすでに提供したこと
のある記事については初めから候補外としてこの相互相
関を計算しない。
【0093】次に、実験について説明する。実験に使用
した記事は米国ClariNet社が提供する商用ネッ
トワークニュースの記事である。このニュースの記事が
選ばれた理由は、第1に計算機処理が容易な形式で提供
されること、第2に記事に他の記事からの引用部分が存
在しないこと(ノイズが少なく、1つの記事単独で意味
が完結している)、第3に分野が比較的幅広く、かつ情
報が新しいことである。
した記事は米国ClariNet社が提供する商用ネッ
トワークニュースの記事である。このニュースの記事が
選ばれた理由は、第1に計算機処理が容易な形式で提供
されること、第2に記事に他の記事からの引用部分が存
在しないこと(ノイズが少なく、1つの記事単独で意味
が完結している)、第3に分野が比較的幅広く、かつ情
報が新しいことである。
【0094】記事の内容で特に多い分野は、コンピュー
タを中心とする電子産業業界関連記事、事件関係記事お
よびスポーツ関係記事であった。記憶させた記事の総数
は1465、1記事あたりの抽出キーワード数は最大5
0、処理されたキーワードの種類(すなわちキーワード
ベクトルの次元)は全部で12637であった。
タを中心とする電子産業業界関連記事、事件関係記事お
よびスポーツ関係記事であった。記憶させた記事の総数
は1465、1記事あたりの抽出キーワード数は最大5
0、処理されたキーワードの種類(すなわちキーワード
ベクトルの次元)は全部で12637であった。
【0095】そして、実験は単一ユーザ用ユーザインタ
フェースが使用され、5名の被験者に提供される記事に
対する主観評価が求められた。まず、各被験者は、任意
のテーマ、そのテーマに関して特に興味のある分野、お
よびそのテーマに関する意見を入力した。入力する情報
は英語のキーワードリスト、または文(章)に限った。
フェースが使用され、5名の被験者に提供される記事に
対する主観評価が求められた。まず、各被験者は、任意
のテーマ、そのテーマに関して特に興味のある分野、お
よびそのテーマに関する意見を入力した。入力する情報
は英語のキーワードリスト、または文(章)に限った。
【0096】入力されたこれらの記事から、本装置は、
5種類・7通りの異なる検索アルゴリズムを用いて記事
を取出し、相関の強いものから順に、各アルゴリズムご
とに6つの記事を提供した。以下に使用したアルゴリズ
ムについて説明する。
5種類・7通りの異なる検索アルゴリズムを用いて記事
を取出し、相関の強いものから順に、各アルゴリズムご
とに6つの記事を提供した。以下に使用したアルゴリズ
ムについて説明する。
【0097】第1は、単純連想想起である。この単純連
想想起では、検索文のキーワードベクトルから普通に連
想想起が行なわれ、得られた想起ベクトルと記事ベクト
ルとの相互相関が求められ、相関の高いものから順に6
記事提供される。
想想起では、検索文のキーワードベクトルから普通に連
想想起が行なわれ、得られた想起ベクトルと記事ベクト
ルとの相互相関が求められ、相関の高いものから順に6
記事提供される。
【0098】第2は、連鎖連想想起である。連鎖連想想
起では、差分フィルタが使用され、検索文と想起された
記事のキーワードベクトルとが用いられて差分キーワー
ドベクトルが生成され、これが用いられて順に連想想起
が行なわれる。そして、提供記事履歴が参照されながら
得られた想起ベクトルと記事ベクトルとの相互相関が求
められ、記事が提供される。
起では、差分フィルタが使用され、検索文と想起された
記事のキーワードベクトルとが用いられて差分キーワー
ドベクトルが生成され、これが用いられて順に連想想起
が行なわれる。そして、提供記事履歴が参照されながら
得られた想起ベクトルと記事ベクトルとの相互相関が求
められ、記事が提供される。
【0099】第3は、弱連想想起である。弱連想想起で
は、弱連想フィルタが使用され、検索キーワードベクト
ルによって想起された想起キーワードベクトルのうち強
く想起された要素がリセットされて、弱く想起された要
素をセット(要素の値を1とする)したベクトルが用い
られて再想起が行なわれる。この再想起の結果得られた
キーワードベクトルの各記事のキーワードベクトルの相
互相関が求められ、相関の強い記事から順に6つ提供さ
れる。3通りのθL ,θU が用いられて、以下のような
ベクトルが生成される。
は、弱連想フィルタが使用され、検索キーワードベクト
ルによって想起された想起キーワードベクトルのうち強
く想起された要素がリセットされて、弱く想起された要
素をセット(要素の値を1とする)したベクトルが用い
られて再想起が行なわれる。この再想起の結果得られた
キーワードベクトルの各記事のキーワードベクトルの相
互相関が求められ、相関の強い記事から順に6つ提供さ
れる。3通りのθL ,θU が用いられて、以下のような
ベクトルが生成される。
【0100】第1の弱連想想起は、強く想起された要素
3個がリセットされ、弱く想起された要素3個がセット
される。第2の弱連想想起は、強く想起された要素6個
がリセットされ、弱く想起された要素が6個セットされ
る。第3の弱連想想起は、強く想起された要素12個が
リセットされ、弱く想起された要素が12個セットされ
る。
3個がリセットされ、弱く想起された要素3個がセット
される。第2の弱連想想起は、強く想起された要素6個
がリセットされ、弱く想起された要素が6個セットされ
る。第3の弱連想想起は、強く想起された要素12個が
リセットされ、弱く想起された要素が12個セットされ
る。
【0101】第4はランダム抽出である。ランダム抽出
では、比較評価用に全くランダムに6つの記事が取出さ
れて提供される。ただし、同じ記事が6つの記事のうち
含まれることがないようにされる。
では、比較評価用に全くランダムに6つの記事が取出さ
れて提供される。ただし、同じ記事が6つの記事のうち
含まれることがないようにされる。
【0102】第5は、直接相互相関である。直接相互相
関では、連想想起が用いられず、検索文のキーワードベ
クトルと各記事のキーワードベクトルとの相互相関が直
接求められ、相関の高いものから順に6つの記事が提供
される。したがって、この検索で得られた記事には検索
文に表われた単語は少なくとも1つ含まれることにな
る。
関では、連想想起が用いられず、検索文のキーワードベ
クトルと各記事のキーワードベクトルとの相互相関が直
接求められ、相関の高いものから順に6つの記事が提供
される。したがって、この検索で得られた記事には検索
文に表われた単語は少なくとも1つ含まれることにな
る。
【0103】各アルゴリズムにおける評価が終わるたび
に提供記事履歴が初期化される。したがって、1つのア
ルゴリズムにおける実験中には同じ記事が提供されるこ
とはないが、別のアルゴリズムの場合は同じ記事が提供
されることはあり得る。
に提供記事履歴が初期化される。したがって、1つのア
ルゴリズムにおける実験中には同じ記事が提供されるこ
とはないが、別のアルゴリズムの場合は同じ記事が提供
されることはあり得る。
【0104】想起に要する時間は単純連想想起で5秒、
2度の連想想起を必要とする弱連想想起で12秒程度で
あった。現在プログラムのテストの関係などでファイル
アクセスが多く少々長い処理時間が必要とされる。しか
し、これらの処理が削除されてプログラムが整理されれ
ば処理時間は3秒程度となると思われる。
2度の連想想起を必要とする弱連想想起で12秒程度で
あった。現在プログラムのテストの関係などでファイル
アクセスが多く少々長い処理時間が必要とされる。しか
し、これらの処理が削除されてプログラムが整理されれ
ば処理時間は3秒程度となると思われる。
【0105】この速度は、一人での使用ではまだ少しも
たつきを感じさせるかもしれないが、複数人の会議での
使用にあたっては、実際の人間でも発言と発言の間に時
間的な間があくことはよくあるため、問題ない程度であ
ると思われる。
たつきを感じさせるかもしれないが、複数人の会議での
使用にあたっては、実際の人間でも発言と発言の間に時
間的な間があくことはよくあるため、問題ない程度であ
ると思われる。
【0106】被験者は提供された記事を読み、その記事
の内容がどの程度設定したテーマと関連があるか、およ
びそのような内容の記事が提供されることを予想してい
たか(すなわち記事の意外性の逆に相当する)をそれぞ
れ0から10までの11段階で評価する。もちろん、実
験に先立ってどのようなアルゴリズムで記事が提供され
るかは被験者には知らされていない。なお、この実験で
は大量の英文が読まれその意味や関連を把握する必要が
ある関係上、被験者には、英文を主に使用している外国
人2名を含む、特に英語力のある者が選ばれている。そ
れぞれの被験者が設定したテーマ、興味および意見は、
表1に示されている。
の内容がどの程度設定したテーマと関連があるか、およ
びそのような内容の記事が提供されることを予想してい
たか(すなわち記事の意外性の逆に相当する)をそれぞ
れ0から10までの11段階で評価する。もちろん、実
験に先立ってどのようなアルゴリズムで記事が提供され
るかは被験者には知らされていない。なお、この実験で
は大量の英文が読まれその意味や関連を把握する必要が
ある関係上、被験者には、英文を主に使用している外国
人2名を含む、特に英語力のある者が選ばれている。そ
れぞれの被験者が設定したテーマ、興味および意見は、
表1に示されている。
【0107】
【表1】
【0108】図6から図10は、その評価結果を示した
グラフである。図6から図10における横軸は意外性を
表わし、縦軸は関連性を表わす。特に、図6は、表1の
被験者1に対する評価結果を示したグラフであり、図7
は、表1の被験者2に対する評価結果を示したグラフで
あり、図8は、表1の被験者3に対する評価結果を示し
たグラフであり、図9は、表1の被験者4に対する評価
結果を示したグラフであり、図10は、表1の被験者5
に対する評価結果を示したグラフである。さらに、図6
(a)〜図10(a)は、ランダム抽出および直接相関
の場合を示したグラフであり、図6(b)〜図10
(b)は単純連想想起、連鎖連想想起、弱連想想起の3
種類を示したグラフである。図11は、関連性と意外性
について説明するための図である。
グラフである。図6から図10における横軸は意外性を
表わし、縦軸は関連性を表わす。特に、図6は、表1の
被験者1に対する評価結果を示したグラフであり、図7
は、表1の被験者2に対する評価結果を示したグラフで
あり、図8は、表1の被験者3に対する評価結果を示し
たグラフであり、図9は、表1の被験者4に対する評価
結果を示したグラフであり、図10は、表1の被験者5
に対する評価結果を示したグラフである。さらに、図6
(a)〜図10(a)は、ランダム抽出および直接相関
の場合を示したグラフであり、図6(b)〜図10
(b)は単純連想想起、連鎖連想想起、弱連想想起の3
種類を示したグラフである。図11は、関連性と意外性
について説明するための図である。
【0109】一般に関連性と意外性とは相互に対立する
概念と思われる。したがって、前述した評価基準を用い
てさまざまな記事が評価された場合、それらは図11に
示す線A付近に分布するであろうと予想される。特にラ
ンダム検索で抽出した記事は関連性0、意外性10の付
近である領域59に分布すると思われる。逆に通常のデ
ータベース検索によって得られる記事は関連性10、意
外性0の付近である領域61に分布するであろうと思わ
れる。
概念と思われる。したがって、前述した評価基準を用い
てさまざまな記事が評価された場合、それらは図11に
示す線A付近に分布するであろうと予想される。特にラ
ンダム検索で抽出した記事は関連性0、意外性10の付
近である領域59に分布すると思われる。逆に通常のデ
ータベース検索によって得られる記事は関連性10、意
外性0の付近である領域61に分布するであろうと思わ
れる。
【0110】本装置では、まずこの中間の関連性5、意
外性5付近である領域63に位置する記事が抽出される
ことが目標とされている。さらに本装置では、最終的に
は関連性10、意外性10の付近である領域65にでき
るだけ近い記事が抽出されることも目標とされている。
領域65に含まれるような記事はもともと少ないことが
一般に予想される。したがって、常にこの領域65に含
まれるような記事が抽出される装置の構築は困難であ
る。しかし、この領域65に含まれる情報は議論のテー
マと関連性がありながら参加者がその関連に気付いてい
なかったものであり、新たな発想を得るために非常に重
要なものとなる可能性が大きい。
外性5付近である領域63に位置する記事が抽出される
ことが目標とされている。さらに本装置では、最終的に
は関連性10、意外性10の付近である領域65にでき
るだけ近い記事が抽出されることも目標とされている。
領域65に含まれるような記事はもともと少ないことが
一般に予想される。したがって、常にこの領域65に含
まれるような記事が抽出される装置の構築は困難であ
る。しかし、この領域65に含まれる情報は議論のテー
マと関連性がありながら参加者がその関連に気付いてい
なかったものであり、新たな発想を得るために非常に重
要なものとなる可能性が大きい。
【0111】次に、図6から図10を参照して、実験結
果について説明する。図6および図7に示す被験者1お
よび2の結果は、比較的うまくいっている。
果について説明する。図6および図7に示す被験者1お
よび2の結果は、比較的うまくいっている。
【0112】被験者1の場合テーマがパーソナルコンピ
ュータ、興味がネットワークシステムで、関連記事がデ
ータベースに比較的多く含まれていた。
ュータ、興味がネットワークシステムで、関連記事がデ
ータベースに比較的多く含まれていた。
【0113】図6(a)を参照して、ランダム検索の場
合、得られた記事はすべて領域59に含まれていた。直
接相互相関によって抽出された記事は関連性3から7、
意外性3から8の線A付近に分布している。したがっ
て、目標とされる領域63に分布された結果が得られた
ので、直接相互相関だけによる記事抽出でも、かなり目
標に沿った情報が抽出可能であることが得られた。
合、得られた記事はすべて領域59に含まれていた。直
接相互相関によって抽出された記事は関連性3から7、
意外性3から8の線A付近に分布している。したがっ
て、目標とされる領域63に分布された結果が得られた
ので、直接相互相関だけによる記事抽出でも、かなり目
標に沿った情報が抽出可能であることが得られた。
【0114】次に、図6(b)を参照して、連想想起を
使用した場合の結果では、直接相互相関による場合と比
べて全体的に関連性が低く、意外性の高い方向の分布が
移動している。特に、白丸で示される単純連想想起によ
った記事は、6記事中5記事が線A付近に分布しつつ領
域59側にシフトしている。これは、連想想起の使用に
よって意外性が向上したことが示されていると思われ
る。また、直接相互相関の場合よりも線Aから離れて、
わずかであるが領域65の方向に分布が広がっていると
も見れる。
使用した場合の結果では、直接相互相関による場合と比
べて全体的に関連性が低く、意外性の高い方向の分布が
移動している。特に、白丸で示される単純連想想起によ
った記事は、6記事中5記事が線A付近に分布しつつ領
域59側にシフトしている。これは、連想想起の使用に
よって意外性が向上したことが示されていると思われ
る。また、直接相互相関の場合よりも線Aから離れて、
わずかであるが領域65の方向に分布が広がっていると
も見れる。
【0115】また、黒丸で示した連鎖連想想起によって
抽出された記事は、矢印で示されるように移動されてい
る。これは、差分ベクトルによって記事の内容が次第に
元のテーマからはずれていったことを示している。具体
的に記事の内容を示すと、最初の記事はRetix社の
英国におけるコンピュータネットワーク戦略、次がネッ
トワーク機器で有名なCISCO社の業績、次いで米国
半導体業界の業績、そして関連性が0となった4つ目の
記事はアメリカのバスケットボールの試合結果記事であ
った。一方、三角で示される弱連想想起であれば、得ら
れた記事はすべて比較的線A付近に分布し、その意外性
は単純連想想起に比べてわずかに高い結果を得ることが
できた。
抽出された記事は、矢印で示されるように移動されてい
る。これは、差分ベクトルによって記事の内容が次第に
元のテーマからはずれていったことを示している。具体
的に記事の内容を示すと、最初の記事はRetix社の
英国におけるコンピュータネットワーク戦略、次がネッ
トワーク機器で有名なCISCO社の業績、次いで米国
半導体業界の業績、そして関連性が0となった4つ目の
記事はアメリカのバスケットボールの試合結果記事であ
った。一方、三角で示される弱連想想起であれば、得ら
れた記事はすべて比較的線A付近に分布し、その意外性
は単純連想想起に比べてわずかに高い結果を得ることが
できた。
【0116】被験者2の場合は設定したテーマ、興味、
意見に表れるキーワードのすべてがほとんどの記事に含
まれず、特にテーマのキーワードを含む記事は1つしか
存在しなかった。つまり、状況としては被験者1の場合
と逆になっている。
意見に表れるキーワードのすべてがほとんどの記事に含
まれず、特にテーマのキーワードを含む記事は1つしか
存在しなかった。つまり、状況としては被験者1の場合
と逆になっている。
【0117】したがって、図7(a)に示すように、ラ
ンダム抽出はもちろん、直接相互相関によっても抽出さ
れる記事のほとんどが領域59に入ってしまい、有効な
記事が得られていない。
ンダム抽出はもちろん、直接相互相関によっても抽出さ
れる記事のほとんどが領域59に入ってしまい、有効な
記事が得られていない。
【0118】一方、図7(b)に示すように、連想想起
を用いた場合も、白丸の単純連想想起では直接相互相関
同様すべての記事が領域59に含まれている。これはテ
ーマのキーワードが含まれる記事が少ない(この場合は
1つ)のため、これから想起されるキーワード群に偏り
が生じ、かつ想起の程度が弱く、うまくテーマが検索に
反映しなかったことによると思われる。
を用いた場合も、白丸の単純連想想起では直接相互相関
同様すべての記事が領域59に含まれている。これはテ
ーマのキーワードが含まれる記事が少ない(この場合は
1つ)のため、これから想起されるキーワード群に偏り
が生じ、かつ想起の程度が弱く、うまくテーマが検索に
反映しなかったことによると思われる。
【0119】これに対し、黒丸の連鎖連想想起および三
角の弱連想想起による記事が線Aから領域65に近いあ
たりに分布されており、かなりよい結果が得られてい
る。特に、連鎖連想想起の場合、最初に抽出された無関
係の記事から矢印で示すように一気に関連性の高い方向
に移動し、さらにその後少しづつ領域65の方向へ移動
している。
角の弱連想想起による記事が線Aから領域65に近いあ
たりに分布されており、かなりよい結果が得られてい
る。特に、連鎖連想想起の場合、最初に抽出された無関
係の記事から矢印で示すように一気に関連性の高い方向
に移動し、さらにその後少しづつ領域65の方向へ移動
している。
【0120】これらは連鎖によって導入された新しい検
索キーワードや弱く想起されたキーワードが、うまくテ
ーマや興味に関連する語の領域に入ったことによるもの
と思われる。おそらく、この例での脱却は、偶然うまい
方向に向かったのであり、常によい方向に向かうとは限
らないが、このような何らかの新しいキーワードの導入
によって抽出される情報が変化し、かつよい方向に向か
う可能性があることが示されている。
索キーワードや弱く想起されたキーワードが、うまくテ
ーマや興味に関連する語の領域に入ったことによるもの
と思われる。おそらく、この例での脱却は、偶然うまい
方向に向かったのであり、常によい方向に向かうとは限
らないが、このような何らかの新しいキーワードの導入
によって抽出される情報が変化し、かつよい方向に向か
う可能性があることが示されている。
【0121】図8に示される被検者3の結果は、あまり
うまくいかなかった例であるため、説明を省略する。
うまくいかなかった例であるため、説明を省略する。
【0122】図9に示される被験者4の結果は、逆に連
想想起や弱連想による新キーワードの導入によってもう
まくいかなかった例である。この被験者4の場合も被験
者2と同様設定したテーマは、興味、意見に含まれるキ
ーワードのすべてがほとんどの記事に含まれていなかっ
た。したがって、被験者2同様直接相互相関および単純
連想想起では領域59から脱却されていない。
想想起や弱連想による新キーワードの導入によってもう
まくいかなかった例である。この被験者4の場合も被験
者2と同様設定したテーマは、興味、意見に含まれるキ
ーワードのすべてがほとんどの記事に含まれていなかっ
た。したがって、被験者2同様直接相互相関および単純
連想想起では領域59から脱却されていない。
【0123】一方連鎖連想想起や弱連想想起によっても
この場合はよいキーワードは導入されず、図9(b)に
示すように、連鎖連想では初めから関連性が低く意外性
の高い領域から次第に領域59方向へ移動し、弱連想で
も領域59から脱却できていない。
この場合はよいキーワードは導入されず、図9(b)に
示すように、連鎖連想では初めから関連性が低く意外性
の高い領域から次第に領域59方向へ移動し、弱連想で
も領域59から脱却できていない。
【0124】つまり、新たに導入するキーワードの選び
方が重要であることがわかった。図10に示す被験者5
の例の場合も新たなキーワードの導入がうまくいかなか
った。この被験者5の場合は、被験者4の場合と逆に、
設定したテーマや興味に含まれたキーワードの多く含む
記事が大量にデータベースに含まれたいた。このため、
直接相関による抽出記事はほとんど領域61に含まれ
た。また、いずれの連想想起方法を採用しても、ほとん
ど結局そのテーマと強い関連のあるキーワードだけが想
起されてしまい、領域61をうまく脱却できなかった。
方が重要であることがわかった。図10に示す被験者5
の例の場合も新たなキーワードの導入がうまくいかなか
った。この被験者5の場合は、被験者4の場合と逆に、
設定したテーマや興味に含まれたキーワードの多く含む
記事が大量にデータベースに含まれたいた。このため、
直接相関による抽出記事はほとんど領域61に含まれ
た。また、いずれの連想想起方法を採用しても、ほとん
ど結局そのテーマと強い関連のあるキーワードだけが想
起されてしまい、領域61をうまく脱却できなかった。
【0125】ただし、弱連想想起の場合に抽出された領
域59付近の記事群は、すべてホッケーに関するもので
あった。これらはテーマのバスケットボールとは直接関
係ないが、スポーツという点での関連は認められるの
で、領域61からの脱却は一応達成されているとも見ら
れる。ただしこの被験者5はその関連性を1と評価した
ためこれらの記事が領域59に入り、評価結果としては
あまり良いものとなっていない。しかし、人によっては
最も高い関連と評価する可能性も十分あり、このあたり
の値の意味は被験者個人に強く依存する難しい問題であ
る。しかし、少なくとも一人の被験者においてはこの評
価のばらつきはほとんどないと考えられるので、被験者
1,2の結果から、関連性がありかつ意外性もある情報
の抽出の可能性はある。
域59付近の記事群は、すべてホッケーに関するもので
あった。これらはテーマのバスケットボールとは直接関
係ないが、スポーツという点での関連は認められるの
で、領域61からの脱却は一応達成されているとも見ら
れる。ただしこの被験者5はその関連性を1と評価した
ためこれらの記事が領域59に入り、評価結果としては
あまり良いものとなっていない。しかし、人によっては
最も高い関連と評価する可能性も十分あり、このあたり
の値の意味は被験者個人に強く依存する難しい問題であ
る。しかし、少なくとも一人の被験者においてはこの評
価のばらつきはほとんどないと考えられるので、被験者
1,2の結果から、関連性がありかつ意外性もある情報
の抽出の可能性はある。
【0126】図12から図17は、図6から図10に示
した各被験者の評価結果を重ねたものを示す図である。
特に、図12は、単純連想想起に対応した図であり、図
13は、連鎖連想想起に対応した図であり、図14は、
第1の弱連想想起に対応した図であり、図15は、第2
の弱連想想起に対応した図であり、図16は、第3の弱
連想想起に対応した図であり、図17は、ランダム抽出
および直接相関に対応した図である。
した各被験者の評価結果を重ねたものを示す図である。
特に、図12は、単純連想想起に対応した図であり、図
13は、連鎖連想想起に対応した図であり、図14は、
第1の弱連想想起に対応した図であり、図15は、第2
の弱連想想起に対応した図であり、図16は、第3の弱
連想想起に対応した図であり、図17は、ランダム抽出
および直接相関に対応した図である。
【0127】図12から図17を参照して、結果的に連
鎖連想>単純連想≧単純相関>>ランダムという結果が
得られたと思われる。特に、連鎖連想は他のいずれと比
べても分布が領域65方向にかなり膨らんだよい傾向を
示している。弱連想想起は、図15に見られるように領
域50付近に偏る傾向が出たが図14および図16に示
すように領域65の方向に膨らんでいるよい傾向も示さ
れており、よい傾向が得られる可能性はあると思われ
る。
鎖連想>単純連想≧単純相関>>ランダムという結果が
得られたと思われる。特に、連鎖連想は他のいずれと比
べても分布が領域65方向にかなり膨らんだよい傾向を
示している。弱連想想起は、図15に見られるように領
域50付近に偏る傾向が出たが図14および図16に示
すように領域65の方向に膨らんでいるよい傾向も示さ
れており、よい傾向が得られる可能性はあると思われ
る。
【0128】以下に、実験結果から連想記憶を用いた情
報検索によって関連性がありかつ意外性もある情報の抽
出の可能性について簡単にまとめる。
報検索によって関連性がありかつ意外性もある情報の抽
出の可能性について簡単にまとめる。
【0129】第1は、設定されたテーマに関連する記事
がある程度以上の数記銘されている場合、連想記憶の使
用により、直接相互相関による抽出よりも意外性の高い
記事の抽出が可能となること。しかも、同時に関連性も
高いものが抽出できる可能性がある。特に、連鎖連想的
な使用が有効と思われる。
がある程度以上の数記銘されている場合、連想記憶の使
用により、直接相互相関による抽出よりも意外性の高い
記事の抽出が可能となること。しかも、同時に関連性も
高いものが抽出できる可能性がある。特に、連鎖連想的
な使用が有効と思われる。
【0130】第2は、テーマや興味、発言に含まれるキ
ーワードそのものが多くの記事に含まれている場合、現
在試みているいずれのアルゴリズムを使用しても意外性
の高い記事の抽出は難しいこと。このような場合には意
外性を導く異質なキーワードを検索キーワードベクトル
に導入する必要がある。
ーワードそのものが多くの記事に含まれている場合、現
在試みているいずれのアルゴリズムを使用しても意外性
の高い記事の抽出は難しいこと。このような場合には意
外性を導く異質なキーワードを検索キーワードベクトル
に導入する必要がある。
【0131】なお、本装置で入力される記事および検索
文は、必ずしも英文である必要はなく、完全な文章であ
る必要はない。
文は、必ずしも英文である必要はなく、完全な文章であ
る必要はない。
【0132】また、構文解析部が構文解析した上で抽出
する単語は、名詞および品詞同定不能語などの品詞によ
る抽出に限る必要ななく、たとえば特定分野の知識に依
存した辞書が準備されて、品詞とは無関係にその辞書に
含まれる語だけが抽出されるような手法も考えられる。
このような手法が取られれば、検索の結果得られる情報
が特定分野指向になると思われる。
する単語は、名詞および品詞同定不能語などの品詞によ
る抽出に限る必要ななく、たとえば特定分野の知識に依
存した辞書が準備されて、品詞とは無関係にその辞書に
含まれる語だけが抽出されるような手法も考えられる。
このような手法が取られれば、検索の結果得られる情報
が特定分野指向になると思われる。
【0133】さらに、実施例ではバーチャルリアリティ
技術に適用できるような臨場感通信会議システムに対し
ての情報検索装置について説明したが、関連性はある
が、同時に検索意図と異なる異質な情報が抽出されるべ
き検索が必要な場合には、本装置は有効である。
技術に適用できるような臨場感通信会議システムに対し
ての情報検索装置について説明したが、関連性はある
が、同時に検索意図と異なる異質な情報が抽出されるべ
き検索が必要な場合には、本装置は有効である。
【0134】さらに、検索意図として個人の利用者の検
索意図について説明したが、実際に会議などの複数の人
間が本装置を使用する場合も想定され、そのような場合
には必要であればその会議参加者の全員または一部の複
数の人間の検索意図が用いられてもよい。
索意図について説明したが、実際に会議などの複数の人
間が本装置を使用する場合も想定され、そのような場合
には必要であればその会議参加者の全員または一部の複
数の人間の検索意図が用いられてもよい。
【0135】
【発明の効果】以上のようにこの発明によれば、検索意
図と異なり、かつ、検索文を表わす検索文情報から連想
されるその度合がたとえば間接的に関連するような所定
の範囲内の想起情報を求め、その想起情報に応じた登録
文を表わす登録文情報を検索結果としてデータベースか
ら出力するので、たとえば発想のきっかけとなるような
情報が提供される。
図と異なり、かつ、検索文を表わす検索文情報から連想
されるその度合がたとえば間接的に関連するような所定
の範囲内の想起情報を求め、その想起情報に応じた登録
文を表わす登録文情報を検索結果としてデータベースか
ら出力するので、たとえば発想のきっかけとなるような
情報が提供される。
【0136】さらに、検索文および登録分が単語で分解
されて構文解析される場合に、所定の条件に従う単語を
抽出して構文解析することで、無意味な想起情報を求め
ることなく、極力最適な検索結果をデータベースから出
力できる。
されて構文解析される場合に、所定の条件に従う単語を
抽出して構文解析することで、無意味な想起情報を求め
ることなく、極力最適な検索結果をデータベースから出
力できる。
【0137】さらに、設定手段によって連想記憶手段が
連想するその度合が設定されるので、検索結果の異質性
を制御でき、たと発想のきっかけとなるような情報が極
力最適にされる。
連想するその度合が設定されるので、検索結果の異質性
を制御でき、たと発想のきっかけとなるような情報が極
力最適にされる。
【図1】門外漢について説明するための図である。
【図2】この発明の一実施例による情報検索装置の概略
ブロック図である。
ブロック図である。
【図3】図2の構文解析部について説明するための図で
ある。
ある。
【図4】この発明の他の実施例による情報検索装置の概
略ブロック図である。
略ブロック図である。
【図5】図4のキーワードフィルタについて説明するた
めの図である。
めの図である。
【図6】第1の被験者に対する実験結果を示したグラフ
である。
である。
【図7】第2の被験者に対する実験結果を示したグラフ
である。
である。
【図8】第3の被験者に対する実験結果を示したグラフ
である。
である。
【図9】第4の被験者に対する実験結果を示したグラフ
である。
である。
【図10】第5の被験者に対する実験結果を示したグラ
フである。
フである。
【図11】発想に対する関連性および意外性の関係を説
明するための図である。
明するための図である。
【図12】図6から図10の単純連想想起のみを抽出し
たグラフである。
たグラフである。
【図13】図6から図10の連鎖連想想起のみを抽出し
たグラフである。
たグラフである。
【図14】図6から図10の第1の弱連想想起のみを抽
出したグラフである。
出したグラフである。
【図15】図6から図10の第2の弱連想想起のみを抽
出したグラフである。
出したグラフである。
【図16】図6から図10の第3の弱連想想起のみを抽
出したグラフである。
出したグラフである。
【図17】図6から図10のランダムおよび直接相関を
抽出したグラフである。
抽出したグラフである。
【図18】臨場感通信会議の様子を示す図である。
23 39 情報検索装置 27 43 構文解析部 29 45 想起情報抽出部 31 データベース 33 41 記事 35 53 検索文 37 55 記事の提供 47 連想記憶部 49 キーワードフィルタ 51 データベース管理部
Claims (5)
- 【請求項1】 検索文および複数の登録文のそれぞれを
構文解析する構文解析手段と、 前記複数の登録文を関連付けた連想情報および検索文を
表わす検索文情報に基づいて、検索文情報から連想され
る想起情報を求める想起情報抽出手段と、 前記各登録文を表わす登録文情報を登録し、前記想起情
報に応じた登録文情報を検索結果として出力するデータ
ベースとを備えた情報検索装置において、 前記想起情報抽出手段は、検索意図と異なり、かつ、前
記検索文情報から連想されるその度合が所定の範囲内の
想起情報を求めることを特徴とする、情報検索装置。 - 【請求項2】 前記想起情報抽出手段は、 前記連想情報を記憶し、前記検索文情報から連想される
想起情報を求める連想記憶手段と、 前記連想記憶手段が連想するその度合を設定する設定手
段と、 前記想起情報に応じた登録文情報を検索結果として前記
データベースに出力させるように管理するデータベース
管理手段とを含む、請求項1記載の情報検索装置。 - 【請求項3】 前記検索文情報、前記想起情報および前
記登録文情報のそれぞれは、その要素が2値化信号で表
わされるベクトル量を含み、 前記連想記憶手段は、前記連想情報および前記検索文情
報に基づいて得られるベクトル量のその要素の値が所定
の範囲内であるか否かで2値化して前記想起情報を求
め、 前記設定手段は、前記範囲を設定する、請求項2記載の
情報検索装置。 - 【請求項4】 前記想起情報抽出手段は、前記データベ
ースに、前記想起情報との一致度合が所定の範囲内の前
記登録文情報を検索結果として出力させる、請求項1記
載の情報検索装置。 - 【請求項5】 検索文および複数の登録文のそれぞれを
単語で分解して構文解析する構文解析手段と、 前記複数の登録文を単語間で関連付けた連想情報および
前記検索文を表わしかつその単語を特定可能な検索文情
報に基づいて、検索文情報から連想される想起情報を求
める想起情報抽出手段と、 前記各登録文を表わしかつその単語を特定可能な登録文
情報を登録し、前記想起情報に応じた登録文情報を検索
結果として出力するデータベースとを備えた情報検索装
置において、 前記構文解析手段は、所定の条件に従う単語を抽出して
構文解析し、 前記想起情報抽出手段は、検索意図と異なる想起情報を
求めることを特徴とする、情報検索装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6134217A JP2832678B2 (ja) | 1994-06-16 | 1994-06-16 | 情報検索装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6134217A JP2832678B2 (ja) | 1994-06-16 | 1994-06-16 | 情報検索装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH086965A true JPH086965A (ja) | 1996-01-12 |
JP2832678B2 JP2832678B2 (ja) | 1998-12-09 |
Family
ID=15123172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6134217A Expired - Fee Related JP2832678B2 (ja) | 1994-06-16 | 1994-06-16 | 情報検索装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2832678B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231237A (ja) * | 1996-02-28 | 1997-09-05 | Nippon Telegr & Teleph Corp <Ntt> | 情報検索方法及び装置 |
JP2002083319A (ja) * | 2000-09-07 | 2002-03-22 | Tohei Nitta | 外国語修得のための分散仮想環境コンピュータシステム |
WO2008056651A1 (fr) * | 2006-11-06 | 2008-05-15 | Panasonic Corporation | Dispositif de recherche d'information |
-
1994
- 1994-06-16 JP JP6134217A patent/JP2832678B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231237A (ja) * | 1996-02-28 | 1997-09-05 | Nippon Telegr & Teleph Corp <Ntt> | 情報検索方法及び装置 |
JP2002083319A (ja) * | 2000-09-07 | 2002-03-22 | Tohei Nitta | 外国語修得のための分散仮想環境コンピュータシステム |
WO2008056651A1 (fr) * | 2006-11-06 | 2008-05-15 | Panasonic Corporation | Dispositif de recherche d'information |
US8108407B2 (en) | 2006-11-06 | 2012-01-31 | Panasonic Corporation | Informationn retrieval apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2832678B2 (ja) | 1998-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sharma et al. | Sentimental analysis of twitter data with respect to general elections in India | |
CN103425635B (zh) | 一种答案推荐方法和装置 | |
Recchia et al. | The semantic richness of abstract concepts | |
CN111221962B (zh) | 一种基于新词扩展与复杂句式扩展的文本情感分析方法 | |
CN110795542B (zh) | 对话方法及相关装置、设备 | |
CN110569354B (zh) | 弹幕情感分析方法及装置 | |
JP6076425B1 (ja) | 対話インターフェース | |
JP6366749B2 (ja) | 対話インターフェース | |
Asad et al. | SOCIAL ACTORS’REPRESENTATION IN ONLINE MALAYSIAN NEWSPAPERS DURING ELECTIONS: A TRANSITIVITY ANALYSIS OF NEWSPAPER TEXT | |
CN112417127A (zh) | 对话模型的训练、对话生成方法、装置、设备及介质 | |
CN113392305A (zh) | 关键词的提取方法及装置、电子设备、计算机存储介质 | |
CN112148886A (zh) | 一种内容知识图谱的构建方法及系统 | |
Chalmers | Awareness, representation and interpretation | |
Rajput et al. | Making a case for social media corpus for detecting depression | |
Nishimoto et al. | Toward an outsider agent for supporting a brainstorming session—an information retrieval method from a different viewpoint | |
Attali et al. | Pragmatic factors can explain variation in interpretation preferences for quantifier-negation utterances: A computational approach | |
JP6034459B1 (ja) | 対話インターフェース | |
Huang et al. | Research on music emotion recognition model of deep learning based on musical stage effect | |
KR20020010226A (ko) | 자연어로 입력된 사용자의 질문을 인공지능 시스템이분석하여 인터넷에 존재하는 정보를 효과적으로 제시하는서비스에 대한방법 | |
Zhang | The third US-China strategic and economic dialogue: A contrastive study of Chinese and American Newspaper News Reporting | |
JPH086965A (ja) | 情報検索装置 | |
JP6080137B1 (ja) | 対話インターフェース | |
Shaikh et al. | Vca: an experiment with a multiparty virtual chat agent | |
JP2839839B2 (ja) | 情報検索装置 | |
JPH08137875A (ja) | 対話活性化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980825 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |