JP3469302B2 - テキスト選定装置 - Google Patents

テキスト選定装置

Info

Publication number
JP3469302B2
JP3469302B2 JP06188594A JP6188594A JP3469302B2 JP 3469302 B2 JP3469302 B2 JP 3469302B2 JP 06188594 A JP06188594 A JP 06188594A JP 6188594 A JP6188594 A JP 6188594A JP 3469302 B2 JP3469302 B2 JP 3469302B2
Authority
JP
Japan
Prior art keywords
keyword
text
node
network
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06188594A
Other languages
English (en)
Other versions
JPH07129593A (ja
Inventor
信宏 下郡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06188594A priority Critical patent/JP3469302B2/ja
Publication of JPH07129593A publication Critical patent/JPH07129593A/ja
Application granted granted Critical
Publication of JP3469302B2 publication Critical patent/JP3469302B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、テキスト選定装置に係
り、特に、新たに与えられたテキストの中からユーザに
とって価値があると思われるテキストをたとえばキーワ
ード連想ネットワークを用いて選定するテキスト選定装
置に関する。 【0002】 【従来の技術】近年、さまざまな情報が氾濫し、文献の
累増をもたらしている。これらの文献にはユーザにとっ
て有益なものが多く含まれている。しかし、これらの文
献を利用しようとしても、あまりにも文献数が多いた
め、必要な文献への的確なアクセスが困難になってい
る。 【0003】そこで、膨大な文献の中からユーザにとっ
て有益なものを選定するために、テキスト検索手段を用
いて選定するテキスト選定装置が利用されつつある。こ
のテキスト検索手段は、キーワードによる絞り込みと、
キーワード空間内のベクトルを利用するものとの2種類
に大別される。 【0004】キーワードによる絞り込みとしては、単に
ユーザが指定したキーワードをそのまま利用するもの
や、キーワード間の類似性を定義したシソーラス情報を
用いてユーザが指定したキーワードおよび類似したキー
ワードまでをも含めたキーワード群により選定を行なう
方法などが知られている。 【0005】一方、キーワード空間のベクトルとして表
現する手法としては、過去に使われたテキスト内のキー
ワードを予め抽出し、この抽出されたN個のキーワード
を用いてN次元のキーワード空間を作成した後、作成し
たキーワード空間内で該テキストの位置を表現し、これ
がユーザの興味の範囲内であるか否かを判定することに
より選定を行なうものがある(Peter W. Foltz and Sus
an T. Dumais(PERSO NALIZED Information Delivery:AN
ANALYSIS of Information Filtering Methods[COMMUNI
CATIONS OF THE ACM Dec 1992 Vo135, No.12 pp51-pp6
0] ))。 【0006】また、キーワード空間を動的に扱う方法と
して、類似するキーワード同士を接続して、本来のキー
ワードのみならず類似するキーワードからもテキストを
選定するキーワードコネクションを利用する方法がある
(特開平2−42564号公報、特開平2−12536
3号公報)。かかる文書検索装置では、ユーザが入力し
たキーワードに基づき、キーワード関連表を用いてデー
タベース中のテキストの確度を計算し、閾値以上のもの
を抽出して検索結果としている。 【0007】しかし、キーワードによる絞り込みやキー
ワード空間のベクトルとして表現する方法を用いてテキ
ストの選定を行った場合には、機械的検索に頼るため、
ユーザ特有のキーワード間の類似性を柔軟に表現するこ
とができない問題があった。また、重要度の低いキーワ
ードを数多く含むテキストにあっては、キーワードがノ
イズに埋もれてしまい、抽出することが困難であった。 【0008】さらに、新しいキーワードが生じた場合に
際し、個々のキーワードを逐次ユーザが入力しているた
め、シソーラス辞書やキーワード空間の更新に多大な労
力や計算資源等が必要であるという問題もあった。 【0009】また、キーワードコネクションを用いる方
法では、ユーザ固有のキーワード間の類似情報を保持し
つつ、与えられたキーワードからユーザにとって関連が
深いと思われるテキストを検索することは可能である
が、不特定のテキストに対してどの程度興味を持ってい
るかということを判定することが不可能であった。 【0010】たとえば、ある文献についてユーザが自分
にとって興味のあるものかどうかを判断する場合には、
一般に、ユーザは内容を一つ一つじっくり読んでいるの
ではなく、文章全体を眺めるように読んでゆき、非常に
重要なキーワードが現れたときや、さほど重要でないキ
ーワードでもそれらが数多く現れたときに、さらにじっ
くりと読むという二重の行動パターンをとることがあ
る。前者のような行動パターンの場合はキーワードによ
る従来の検索手法で十分対応できるが、後者のような場
合には所望のテキストがノイズに埋もれてしまう可能性
がある。 【0011】そこで、このような人間の判定基準を計算
機に取り込むため、人間の行動を情報処理装置としてモ
デル化した認知モデルを用いる試みがなされている。た
とえば、John R.Anderson 氏の提唱するACT* (The
Architecture of Cognition:Harvard University Press
1983,ISBN 0-674-04426-6)もこのような認知モデルの
一つとして知られている。この理論は、人間の持つ概念
をネットワーク上の一つのノードとして表し、このネッ
トワーク上に活性を伝搬させ、活性が高いものが現在思
い出している概念であるとすることにより、人間の連想
記憶能力を表現する。 【0012】しかし、このような認知モデル化された情
報処理装置としてテキスト選定装置を構成した場合、デ
ータベースの全てのテキスト群に対して全てのキーワー
ド群をキーワード連想ネットワーク上で活性化させて評
価しなければならないため、いわゆる計算爆発が起こり
非現実的である。 【0013】 【発明が解決しようとする課題】上述のように、従来技
術によるテキスト選定は、機械的検索に頼るためユーザ
特有のキーワード間の類似性を柔軟に表現することがで
きない問題があった。また、重要度の低いキーワードが
数多く出現するテキストの抽出は、キーワードがノイズ
に埋もれてしまい困難であった。さらに、新しいキーワ
ードが生じた場合に際し、逐次ユーザが入力しているた
め、シソーラス辞書やキーワード空間の更新に多大の労
力や計算資源等が必要であるという問題があった。 【0014】また、キーワードコネクションを用いる方
法では、ユーザ固有のキーワード間の類似情報を保持し
つつ、与えられたキーワードからユーザにとって関連が
深いと思われるテキストを検索することは可能だが、不
特定のテキストに対してどの程度興味をもっているかと
いうことを判定することが不可能であった。 【0015】さらに、認知モデル化された情報処理装置
としてテキスト検索装置を構成した場合、データベース
の全てのテキスト群に対して全てのキーワード群をキー
ワード連想ネットワークで活性化させて評価しなければ
ならないため、計算爆発が起こり非現実的であった。 【0016】そこで、本発明の第1の目的は、ユーザ固
有のキーワード間の類似性を柔軟に表現できるテキスト
選定装置を提供することである。また、第2の目的は、
重要度の低いキーワードが数多く出現するテキストに対
しても、テキストの選定を可能とするテキスト選定装置
を提供することである。さらに、第3の目的は、キーワ
ード間の類似性情報の管理を容易ならしめるテキスト選
定装置を提供することである。また、第4の目的は、キ
ーワード連想ネットワークを用いた際に問題となる計算
爆発をなくし、極めて高速にかつ現実的にテキストの選
定を行うことができるテキスト選定装置を提供すること
である。 【0017】 【課題を解決するための手段】上記課題を解決するため
に、本発明者は、新たなテキストのみを対象にして考え
た場合には、キーワード群をキーワード連想ネットワー
クで作り出すのではなく、テキスト全体を評価し、これ
を閾値で判定するようにすれば、従来ならばキーワード
単位で閾値を設けて切り捨てていたキーワードをも考慮
したテキスト選定を行えることに着目した。 【0018】すなわち、テキスト選定装置は、個々のキ
ーワードに対応した大きさに関する情報および重みに関
する情報を持つノードおよびノード間を接続するリンク
を備えたキーワード連想ネットワークを用いてユーザが
所望としているテキストの選定を行うテキスト選定装置
において、前記キーワード連想ネットワーク上の全ノー
ドの活性値を初期状態に設定する手段と、対象としてい
るテキストから所定のキーワードを抽出するキーワード
抽出手段と、この手段により抽出されたキーワードが前
記キーワード連想ネットワーク上にノードとして存在す
るか否かを判断する判断手段と、この判断手段により前
記抽出されたキーワードがノードとして存在すると判断
されたときに前記大きさに関する情報に基づいて前記抽
出されたキーワードに対応するノードの活性値を算出す
る活性値算出手段と、この手段により算出されたノード
の活性値を前記キーワード連想ネットワーク上に伝搬さ
せる活性伝搬手段と、活性伝搬後における前記キーワー
ド連想ネットワーク上の全ノードの活性値と重みに関す
る情報とに基づいて前記対象としているテキストの得点
を算出する得点算出手段と、この手段により算出された
テキストの得点が所定の閾値以上のときに該テキストを
ユーザに提示する提示手段とを備えたことを特徴として
いる。 【0019】なお、前記活性値算出手段は、前記テキス
トから抽出されたキーワードについて、前記キーワード
連想ネットワーク上の各キーワードを中心とする所定領
域の部分ネットワークについて活性値を求めるものであ
ると、計算量を大幅に低減できるので好ましい。部分ネ
ットワークは、各キーワードを中心とする前記キーワー
ド連想ネットワーク上の距離によって決めてもよいし、
各キーワードを中心とする前記キーワード連想ネットワ
ーク上のリンクの強さによって決めてもよい。 【0020】また、前記提示手段は、提示されたテキス
トに対する評価値を入力する手段と、この手段により入
力された評価値に基づいて前記抽出されたキーワードに
対応するノードの大きさに関する情報を更新する手段と
を含んでいることが好ましい。 【0021】また、前記提示手段は、提示されたテキス
トをユーザが読む際の視線の動きを追跡し、この追跡情
報からテキストの価値を評価する評価手段を備えている
ことが好ましい。 【0022】テキスト選定装置は、入力されたテキスト
情報の中からユーザに有用と思われるテキスト情報を取
出して重要度を予測し、重要と判定されたテキスト情報
をユーザに表示提示するテキスト選定装置本体と、表示
されたテキスト情報をユーザが読む際の視線の動きを追
跡し、この追跡情報から表示されているテキスト情報に
対するユーザの興味の度合を評価して前記テキスト選定
装置本体にフィードバックする評価手段と、この評価手
段によって得られた評価値と前記テキスト選定装置本体
で用いた予測値とを用いて上記評価手段での評価の際に
用いる係数を学習する学習手段とを備えている。 【0023】 【作用】テキスト選定装置では、まず、新たに対象とし
ているテキストから所定のキーワードを抽出する。抽出
されたキーワードが、キーワード連想ネットワーク上に
存在する場合、すなわち各キーワードに対応するノード
がキーワード相互間の接続関係を表したキーワード連想
ネットワーク上に存在する場合には、そのノードの大き
さにより決まる初期値をノード活性値とする。ノードが
存在する全てのキーワードについてノードの活性値を求
めた後、この活性値をキーワード連想ネットワーク上に
後述するACT* の方法により伝搬させ、最終的なキー
ワード連想ネットワーク全体のノードの活性値を求め
る。 【0024】次に、キーワード連想ネットワーク上の全
てのノードの活性値とそのノードの重要度を表す重みと
を考慮した関数により各々のノードの得点を求め、全て
のノードの得点を合計することにより、個々のユーザに
とっての価値を表すテキストの得点を求める。 【0025】このようにして求めたテキストの得点がユ
ーザの定める閾値を越えているとき、このテキストをユ
ーザに提示する。ユーザはこのテキストについて判定を
行って、その判定結果をシステムに与える。これによ
り、テキストから抽出された全てのキーワードに対応す
るノードの大きさをテキストの得点分だけ増加させ、ま
たテキストから抽出されたキーワードに対応するノード
相互間にリンクを持たせる。以上のようにして、キーワ
ード連想ネットワークの学習が行なわれる。 【0026】一方、抽出されたキーワードがキーワード
連想ネットワーク上にキーワードとして存在しない場
合、すなわちキーワードに対応するノードがキーワード
連想ネットワーク上に存在しない場合には、上記テキス
トの選定を行った後、キーワード連想ネットワークにつ
いて学習を行なう。すなわち、該ノードをキーワード連
想ネットワークに加え、ユーザに該キーワードを表示し
て重みの入力を促し、この入力値を対応するノードの重
みに設定する。同様に、テキストから抽出された全ての
キーワードに対応するノードの大きさをテキストの評価
値分だけ増加させ、また提示されたテキストから抽出さ
れたキーワードに対応するノード相互間にリンクを持た
せることによって、キーワード連想ネットワークの学習
を行う。 【0027】したがって、本発明に係るテキスト選定装
置によれば、柔軟に新しいキーワードを取り込むことが
可能となり、ユーザ固有のキーワード間の類似性情報を
得ることができる。 【0028】テキスト選定装置において、キーワード連
想ネットワーク上で活性を伝搬させる方法としてはAnde
rson氏の提唱するACT* 論理を用いている。以下に、
その活性を伝搬させる方法について説明する。ノードi
における時間tの活性の変化量は、 【0029】 【数1】 により表される。 【0030】(1) 式の右辺の第1項はノードiの時間t
において獲得する活性の総量を表し、第2項はノードi
の時間tにおいて失われる活性の総量を表している。両
者の差分により変化量を求めることができる。したがっ
て、ノードiの時間tにおける活性の総流入量は、 【0031】 【数2】 により表される。 【0032】(2) 式における右辺の第1項はノードiの
時間tにおけるシステムから直接供給される活性の量を
表し、第2項はノードiの時間tにおける他のノードへ
の活性の流出と流入量を表す。すなわち、活性の流れは
この2種類しかないため、両者の和によりノードiの時
間tにおける活性の総流入量ni (t)となる。 【0033】ところで、(1) 式は、各ノードに関する式
であったが、全てのノードの活性値のベクトルAと全て
のノードの総流入活性のベクトルNと活性の変化量を表
現すると以下のようになる。 【0034】 【数3】 同様に、ノード間のリンクの強さを表す行列Rと全ての
活性供給量を表す行列Cを導入すると、(2) 式は以下の
ようになる。 【0035】 【数4】 【0036】(3) 式は活性の変化量を求める式である
が、我々が所望としているものは定常状態におけるネッ
トワークの活性の分布を知ることである。定常状態にお
ける活性値の変化量は0であるため、(3) 式の左辺は0
とみなすことができる。純粋な数学的意味においての定
常状態になるためには限りなく長い時間がかかるが、こ
こでは0と近似することで足りる。したがって、(3) 式
および(4) 式から(5) 式を得る。 【0037】 【数5】この(5) 式を変形することにより最終的に以下の式を得
る。 【0038】 【数6】 【0039】なお、Anderson氏によれば、人間の連想記
憶の特性を表すのに妥当な値としてρ* =1,B=0.
8であるとしている。これにより、キーワード連想ネッ
トワーク上の各ノード活性の最終的な値は、 【0040】 【数7】 により近似することができる。 【0041】また、テキスト選定装置では、表示された
テキスト情報をユーザが読む際の視線の動きを追跡し、
この追跡情報から表示されているテキスト情報に対する
ユーザの興味の度合を評価しているので、ユーザが持っ
ている興味の度合をユーザが明示的に入力することなし
にテキスト選定装置を学習させることが可能となる。 【0042】 【実施例】以下、図面を参照しながら実施例を説明す
る。図1には本発明の一実施例に係るテキスト選定装置
のブロック構成図が示されている。 【0043】この装置は、テキストの選定を行う部分
と、テキストの選定を行った後にそれをキーワード連想
ネットワークに反映させるための学習を行う部分とに分
けられる。 【0044】同図において、文書記憶部1は、新たに対
象となるテキストを一時的に記憶しておくためのもので
ある。この文書記憶部1に記憶されたテキストからキー
ワード抽出部2によって所定のキーワードが抽出され
る。 【0045】抽出されたキーワードはキーワード記憶部
3に記憶される。このキーワード記憶部3に記憶された
キーワードについて、活性値計算部4によってキーワー
ドの活性値が求められる。そして、求められた活性値は
キーワード連想ネットワーク記憶部(以下「ネットワー
ク記憶部」という)5に記憶されたキーワード連想ネッ
トワーク上に伝搬される。この伝搬結果に基づいてテキ
ストの得点が計算される。閾値判定部6は、計算された
テキストの得点が所定の閾値以上か否かを判定し、閾値
以上であれば、該テキストを表示すべく表示部7に送出
する。また、表示部7は入力部8から入力されたデータ
やコマンド等を適宜表示する。キーワード連想ネットワ
ーク更新部9は、入力部8により入力される後述する評
価値に基づいてキーワード連想ネットワークを更新す
る。 【0046】次に、本実施例に係るテキスト選定装置の
各部について詳述する。文書記憶部1に一時的に蓄えら
れた新たなテキストは、公知のキーワード抽出手段(た
とえば、石川徹也:「文意解析処理に基づく主題索引作
成支援システム」,情報処理学会論文誌Vo132, No.2, 1
991 に用いられているキーワード抽出手段)によってキ
ーワードが抽出される。抽出されたキーワードはキーワ
ード記憶部3に記憶される。 【0047】活性値計算部4は、まず、ネットワーク記
憶部5に記憶されているネットワーク上の各キーワード
に対応するノード全てに初期値を与える。そして、対応
するノードが存在する全てのキーワードについての処理
が終了すると、活性値計算部4はネットワーク上に活性
値を伝搬させて最終的な活性値を求める。さらに、各ノ
ードの活性値と重みとを考慮した関数を用いて各ノード
の得点を求める。本実施例においては、ノードの活性値
と重みとの積をノードの得点としている。 【0048】ここで、本実施例において用いられるキー
ワード連想ネットワークについて説明する。図2はネッ
トワークの一例を示す模式図である。 【0049】各キーワードに対応するノード21には、
ユーザの得点の累計を表す「大きさ」と、ユーザにとっ
ての重要度を表す「重み」とが設けられている。各ノー
ド間はリンクが存在する場合と、存在しない場合とがあ
る。リンクが存在する場合、ノードAからノードBへの
「リンクの強さ」は、ノードAが直接リンクを持つ全て
のノードの「大きさ」の合計でノードBの「大きさ」を
割った値により決定する。すなわち、あるノードAから
出る全てのリンクの強さの合計は常に1になる。 【0050】図3は、図2に示したネットワーク上のノ
ード情報がネットワーク記憶部5に記憶されている状態
の一例を示す図である。ノードの属性には「ノード
名」、「大きさ」、「重み」、「活性値」および「得
点」がある。本実施例では、活性値は初期状態において
全て0である。 【0051】図4は、図2に示したネットワーク上のノ
ード間のリンク情報がネットワーク記憶部5に記憶され
ている状態の一例を示す図である。行列のインデックス
(i/j)は、図3におけるノード番号に対応する。ノ
ード間にリンクが存在する場合は、行列の対応する要素
を1で表し、リンクが存在しない場合は0で表す。ノー
ドの自分自身へのリンクは存在せず、必ず0になる。ま
た、ノードiからノードjへリンクが存在する場合は、
同時にノードjからノードiへのリンクも存在するもの
とする。したがって、ノード間リンク情報を表す行列は
必ず対称行列となる。なお、リンク情報は、必ずしも双
方向である必要はなく、単方向のみを記述する三角行列
であってもよい。 【0052】図5は、各ノード間の「リンクの強さ」に
関する情報がネットワーク記憶部5に記憶されている状
態の一例を示す図である。各ノード間のリンクの強さ
は、ノードiからノードjへのリンクの強さを表し、上
記ノード情報とノード間のリンク情報とから求められ
る。たとえば、ノード「ユーザ」とノード「インターフ
ェイス」とのリンクの強さ、すなわちノード番号i=1
からノード番号j=2へのリンクの強さは、 リンクの強さ=90/(80+90) =0.53 となる。 【0053】次に、活性値計算部4について説明する。
ノード情報の「活性値」属性には、ネットワーク上の全
てのノードの活性値が記憶されている。本実施例におい
ては、初期状態は全て0である。活性値計算部4は、キ
ーワード記憶部3よりキーワード群を読み出し、それぞ
れのキーワードに対応するノードがキーワード連想ネッ
トワーク上に存在する場合には、該ノードの活性値を該
ノードの「大きさ」と同じ値に設定する。全てのキーワ
ードについて処理が終了すると、活性の伝搬を求める。
あるノードの活性は減衰率ρで定められる値により減衰
した値がリンクを持つ隣のノードにリンクの強さに応じ
て分配される。この活性値計算部4の機能を図6に基づ
いて説明する。 【0054】図6は、活性値計算部4の機能を説明する
ための流れ図である。キーワード記憶部3には、図7に
示すような抽出されたキーワードがキーワードリストと
して記憶されているとする。活性値計算部4は、このキ
ーワードリストを参照するためのインデックスiをキー
ワードリストの先頭である1に設定する(ステップ6
1)。 【0055】次に、キーワードリストにi番目のキーワ
ードが存在するか否か、すなわちキーワードリストにま
だ読み込まれていないキーワードが存在するか否かを検
索し(ステップ62)、存在する場合は当該キーワード
を読み込む(ステップ63)。読み込まれたキーワード
が、ネットワーク記憶部5上に記憶されている場合(ス
テップ64)、対応するノードの活性値を該ノードの大
きさと同じ値に設定する(ステップ65)。そして、イ
ンデックスを1つ進め(ステップ66)、これら一連の
処理をキーワードリストの全てのキーワードについて行
う。 【0056】キーワードリストの全てのキーワードにつ
いての処理を終了すると(ステップ62)、活性値計算
部4は活性値の伝搬を求める(ステップ67)。ネット
ワーク上の各ノードの最終的な活性値は、既に述べたよ
うに、(7) 式により近似される。(7) 式のRは図5に示
したノード間の「リンクの強さ」であり、C* はテキス
トから抽出したキーワードに対応するノードがシステム
により活性化された結果、つまりネットワークに供給さ
れる活性値の量を表す。この活性値の量は、既にステッ
プ65において「活性値」属性に代入されている。した
がって、(7) 式を計算して図3に示した「活性値」属性
に順次書き込めば、ネットワークの活性値の伝搬を求め
ることと等価になる。なお、本実施例においては、(7)
式の連立一次方程式を解くため、SOR(Successive O
ver-Relaxation)法を用いているが、これに限る必要は
ない。 【0057】次に、キーワード連想ネットワークの学習
に伴うノードの肥大による活性値のオーバーフロー(イ
ンフレ化)を避けるために活性値を正規化する。具体的
には、全てのノードの活性の合計を求め、これを各ノー
ドの活性の値で割り、これを図5の活性値の項に再び記
憶する(ステップ68)。 【0058】次に、活性値計算部4は、活性値と重みと
を考慮した関数により各ノードの得点を求める。ここで
は、活性値と重みとの積により得点を求めるものとす
る。求められたノードの得点は、図5のノードの「得
点」属性に書込まれる(ステップ69)。そして、テキ
ストの得点は、全てのノードの得点を合計することによ
り求められる(ステップ70)。 【0059】たとえば、図2に示したネットワークと図
7(a) に示したキーワードリストとが活性値計算部4に
与えられた場合、活性値は図8(a) のように伝搬し、テ
キストの得点は、 0.15×4 +0.23×4 +0.17×0 +0.14×3 +0.16×2 +0.15×1 =2.41 となる。 【0060】一方、同じネットワークと図7(b) のキー
ワードリストとが活性値計算部4に与えられた場合、活
性値は図8(b) のように伝搬し、テキストの得点は、 0.13×4 +0.20×4 +0.30×0 +0.12× 3+0.14× 2+0.10×1 =2.06 となる。 【0061】次に、閾値判定部6について説明する。閾
値判定部6は、テキストの得点が閾値以上であるときに
は表示部7に該テキストを表示する旨の制御命令を送
る。したがって、表示部7に該テキストが表示される。
テキストの得点が閾値以下であるときには表示は行われ
ない。 【0062】このように、表示部7は閾値判定部6の制
御命令にしたがって文書記憶部1に記憶されているテキ
ストを表示する。したがって、上述の例で、閾値判定部
6内に保持されている閾値が2.40と2.06との間、た
とえば、2.20であった場合には、図7(a) のキーワード
リストを生成したテキストはユーザに表示される。一
方、図7(b) のキーワードリストを生成したテキストは
ユーザに表示されないことになる。 【0063】つまり、ネットワークに着目してみると、
ユーザは「インタフェース」というキーワードに興味が
あることが分る。しかし、これは「ユーザインタフェー
ス」の意味であり、ハードウェア間の「通信インタフェ
ース」ではないので、ユーザの本来の意図に合致するこ
とになる。 【0064】上述の例ではどちらも「インタフェース」
というキーワードを含んでいたが、ノードの大きさが大
きく、かつノードの重みが小さいノード(この例では
0)を含んでいる場合よりも、ノードの大きさとノード
の重みとが小さくても複数のノードで支持されている場
合の方が、テキストの得点が高いという結果になる。 【0065】したがって、テキストから抽出されたキー
ワードリストに大きさと重みとが小さいノードが数多く
含まれている場合であっても、テキストの得点として大
きいものを得ることが可能となる。しかも、このような
場合はユーザが本来ならば重みの大きいキーワードを単
に知らない場合が多い。よって、このような方法によれ
ば、新しいキーワードを発見することも可能である。逆
に、重みの非常に大きいキーワードが一つだけキーワー
ド群に含まれる場合は、通常のキーワード検索手段によ
り達成することができるので、これと併用するようにし
てもよい。 【0066】このように表示部7に表示されたテキスト
について、ユーザはテキストを判定し、ユーザにとって
の判定結果を評価値として入力部8より入力する。本実
施例においては、0から4までの数字の5段階の評価値
を用い、この数字が高い程ユーザにとって重要なテキス
トであることを表している。さらに、本実施例では、抽
出されたキーワードであって、ネットワーク上に登録さ
れていないものを表示部7に順次表示し、これらのキー
ワードの重みについても同様に5段階評価で入力部8よ
りユーザによって入力することを促すようにしている。 【0067】入力部8より入力された判定結果は、キー
ワード連想ネットワーク更新部9に送出される。キーワ
ード連想ネットワーク更新部9では、キーワード記憶部
3に記憶されているキーワードおよび入力された判定結
果に基づいてネットワーク記憶部5に記憶されているネ
ットワークを更新する。 【0068】次に、キーワード連想ネットワーク更新部
9の機能について説明する。キーワード連想ネットワー
ク更新部9は、表示部7に表示されたテキストに対して
入力部8から判定結果が与えられると、ネットワークの
状態を更新する。 【0069】図9乃至図11は、キーワード連想ネット
ワーク更新部9の機能を説明するための流れ図である。
図9に示す処理では、ネットワーク上に登録されていな
いキーワードに対する登録および今回新たにキーワード
抽出部2が抽出したキーワードに対応するノードの大き
さの変更を行っている。 【0070】すなわち、キーワード記憶部5に記憶され
たキーワードリストを参照するためのインデックスiを
キーワードリストの先頭である1に設定する(ステップ
91)。次に、キーワードリストにi番目のキーワード
が存在するか否かを確認し(ステップ92)、存在する
場合は該当するキーワードを読み込む(ステップ9
3)。次に、この読み込まれたキーワードがネットワー
ク記憶部5のノード情報領域に記憶されていない場合
(ステップ94)は、対応するノードをノード情報に追
加し、「ノード名」属性に該キーワードを登録し、「大
きさ」、「重み」、「活性値」およびノードの「得点」
属性に0を代入し(ステップ95)、該キーワードを表
示部7に表示する(ステップ96)。 【0071】ユーザは、該キーワードの重みを5段階で
評価し、入力部8からその判定結果を入力する(ステッ
プ97)。なお、この判定結果は、0から4の数値によ
り表され、数値が大きいほどユーザにとって重要である
ものとする。 【0072】次に、ノード情報の対応するノードの「重
み」属性に該判定結果を代入する(ステップ98)。次
に、先にユーザがテキストを評価したテキストの判定結
果を対応するノードの「大きさ」属性に書き込む(ステ
ップ99)。そして、キーワードのインデックスiを次
に進める(ステップ100)。これら一連の処理をキー
ワードリストの全てのキーワードについて行って(ステ
ップ92)、次の図10に示される処理に進む。 【0073】図10に示す処理では、今回新たに抽出し
た全てのキーワード間にリンクを持たせる。すなわち、
キーワードリストのi番目のキーワードを読み込み(ス
テップ102)、読み込まれたキーワードのノード番号
をキーワード記憶部5のノード情報領域から引き出し、
変数aに代入する(ステップ103)。次に、リンクを
張る相手先のキーワードのインデックスをjとし、この
インデックスjがインデックスiの次を指し示すように
して(ステップ104)、キーワードリストにj番目の
キーワードが存在するか確認し、存在する場合はキーワ
ードリストのj番目のキーワードを読み込む(ステップ
105)。読み込まれたキーワードのノード番号をノー
ド情報領域から引き出し、変数bに代入する(ステップ
106)。 【0074】次に、キーワード記憶部5のリンク情報領
域において行列で表されるノード間のリンク情報の
(a,b)および(b,a)の要素をそれぞれ1に設定
し(ステップ107)、キーワードリストのインデック
スjを次に進める(ステップ108)。キーワードリス
トの全てのキーワードについてjに関しての処理が終了
すると(ステップ105)、キーワードのインデックス
iを次に進める(ステップ109)。このようにして、
一連の処理をキーワードリストの全てのキーワードにつ
いて行って(ステップ102)、次の図11に示される
処理に進む。 【0075】図11に示す処理では、ノード間のリンク
およびノードの大きさの変更に伴い、図5に示したリン
ク間の強さの変更を行う。すなわち、ノード情報を参照
するためのインデックスiをノード情報の先頭である1
に設定する(ステップ111)。次に、ノード情報にi
番目のノードが存在するか確認する(ステップ11
2)。リンクの強さは、その方向によりそれぞれ異なる
ため、ここにいうノードiはリンクの出発地点を表す。
次に、ノード情報を参照するためのインデックスjをノ
ード情報の先頭である1に設定し、ノードの大きさの合
計を求める変数「合計」を初期設定のため0にする(ス
テップ113)。 【0076】次に、ノード情報にj番目のノードが存在
するか確認する(ステップ114)。ここで、ノードj
はリンクの目的地点を表す。キーワード記憶部5のリン
ク情報領域においてリンクの有無を表す行列の各要素を
「リンク[i,j]」で表すものとし、リンク[i,
j]×大きさ[j]を変数「合計」に書き加えることに
より、リンクが存在する場合は接続されているノードの
大きさを書き加えることができる(ステップ115)。
次に、ノード情報に対するインデックスjを次に進める
(ステップ116)。インデックスjに関して全てのノ
ードを処理し終えたら(ステップ114)、インデック
スjを再びノード情報の先頭である1に戻す(ステップ
117)。この時点で、ノードiに接続されている全て
のノードの大きさの合計が求まることになる。 【0077】次に、ノード情報にi番目のノードが存在
するか確認し(ステップ118)、ノードが存在する場
合は、図5に示したノード間の強さの行列の要素「強さ
[i,j]」に大きさ[j]の値の合計で割った値を代
入する。ただし、リンク[i,j]を掛けることによ
り、リンクが存在しない場合には強さが0になるように
する(ステップ119)。 【0078】次に、ノード情報のインデックスjを次に
進める(ステップ120)。ノード情報の全てのノード
をjに関して処理し終えると(ステップ118)、ノー
ド情報のインデックスiを次に進める(ステップ12
1)。ノード情報の全てのノードをiに関して処理し終
えると(ステップ112)、処理を終了する。 【0079】図2に示したキーワード連想ネットワーク
に、図7(a) のキーワード群を生成するテキストの得点
が4で、重みが4の新規キーワード「マン・マシン」を
加えた更新結果を図12に示す。新たに加わったリンク
を実線で示し、既に存在しているリンクを点線で示して
いる。 【0080】ところで、上記例では活性値計算部4で、
ACT* の方法を使って活性値を伝搬させ、キーワード
連想ネットワーク上の最終的な活性値を求めるようにし
ている。ACT* の方法をそのまま適用すると、キーワ
ード連想ネットワーク上に存在するノードの数と同じ次
元の連立一次方程式を解く必要がある。連立一次方程式
を解くには、その方程式の次元の三乗に比例して計算量
が増加するため、大規模なキーワード連想ネットワーク
に用いるのは困難が伴う。 【0081】そこで、ここでは大規模なキーワード連想
ネットワークにおいても、計算爆発を起こさずに活性伝
搬の定常状態を求めることができる二通りの活性伝搬手
法を説明する。 【0082】(1) 単純な距離を用いる方法 この方法では、テキストから抽出された各キーワードに
ついて、各キーワードを中心とし、キーワード連想ネッ
トワークのリンクをたどって、決められたステップ数以
内で到達可能なノードとリンクのみを取り出した、部分
ネットワークとACT* の式とを用いて活性値を求め
る。そして、求まった部分ネットワークの各ノードの活
性値をキーワード連想ネットワークの対応するノードに
加え、これを全てのキーワードに関して行なうことによ
り、キーワード連想ネットワークの全ノードの活性値を
求める。 【0083】以下、図13に示す処理の流れを参照しな
がら説明する。まず、図1のキーワード記憶装置3に記
憶されている図7に示すようなキーワードリストを参照
するためのインデックスiをキーワードリストの先頭で
ある1に設定する(ステップ131)。次にキーワード
リストにi番目のキーワードが存在するか確認し(ステ
ップ132)、存在する場合にはキーワードリストのi
番目のキーワードを読み込む(ステップ133)。読み
込まれたキーワードが、図3のようなキーワード連想ネ
ットワークに記憶されている場合(ステップ134)、
変数“起点”を読み込まれたキーワードに設定し、変数
“距離”を予め定められた部分ネットワークの大きさ
(この例では5)に設定する(ステップ135)。 【0084】図17のような部分ネットワークの初期化
を行なう(ステップ136)。ただし、初期化された段
階では部分ネットワークには、どのノードも登録されて
いない。部分ネットワーク生成部に引数(起点,距離)
を渡し、起点を中心としてリンクを辿って、5つ隣のノ
ードまでも含む部分ネットワークを作成する(ステップ
137)。 【0085】得られた部分ネットワーク内の起点の活性
値をキーワード連想ネットワーク(全体ネットワーク)
での起点のノードの大きさに設定する(ステップ13
8)。部分ネットワークに含まれるノード間のリンクの
強さ情報を図5のようなリンク情報から取り出し(ステ
ップ139)、活性の伝搬を求める(ステップ14
0)。部分ネットワークの各ノードの活性値を対応する
全体ネットワークの各ノードの活性値に加える(ステッ
プ141)。インデックスiを1つ進め(ステップ14
2)、次のキーワードの処理へ進む。全てのキーワード
の処理が終了したら(ステップ132)、処理を終了す
る。 【0086】次に、図14を用いて部分ネットワーク生
成部の働きを説明する。部分ネットワーク生成部は引数
(距離)が正である間、再帰的に部分ネットワークを拡
張して行く。まず、引数として受け取った起点の全体ネ
ットワークでの番号を部分ネットワークに登録し、その
活性値を0に設定する(ステップ141)。次に、引数
として受け取った距離を1減じ、その値を変数“次の距
離”に格納する(ステップ142)。次の距離が0であ
った場合にはシステムは終了し、呼び出し元に戻る(ス
テップ143)。次の距離が0でなかった場合にはイン
デックスとなる変数iを0に初期化する(ステップ14
4)。図4のようなリンク情報を参照し、起点ノードに
隣接しているノード、隣接ノード[i]を探し、隣接ノ
ードを全て探し終えたら終了する(ステップ145)。 【0087】隣接ノード[i]が部分ネットワークに登
録されていなければ(ステップ146)、隣接ノード
[i]とを引数として、再帰的に部分ネットワーク生成
部を呼ぶ(ステップ48)。隣接ノード[i]が部分ネ
ットワークに登録されていれば(ステップ146)、隣
接ノード[i]の距離と次の距離とを比較し、次の距離
の方が大きければ(ステップ147)、隣接ノード
[i]と次の距離を引数として、再帰的に部分ネットワ
ーク生成部を呼ぶ(ステップ148)。隣接ノードを探
すインデックスを一つ進め、次の隣接ノードを探す(ス
テップ149)、隣接ノード[i]の距離が次の距離以
上の場合には、隣接ノードを探すインデックスを一つ進
め、次の隣接ノードを探す(ステップ149)。 【0088】このようにして、リンクをたどって、始め
の距離で定められた回数で到達可能な範囲に存在するノ
ードを全て取り出した、部分ネットワークを生成する。
次に、図15を用いて部分ネットワークに対応したノー
ド間のリンクの強さの情報を作成する方法について説明
する。 【0089】まず、インデックスiを1に初期化する
(ステップ151)。インデックスi(部分ネットワー
クに含まれるノードの数)がN以下の場合はノード
[i]に関して処理を行ない、Nに到達した、すなわち
部分ネットワークに含まれる全てのノードに関して処理
を終えた場合には終了する(ステップ152)。 【0090】インデックスjを1に初期化する(ステッ
プ153)。インデックスj(部分ネットワークに含ま
れるノードの数)がN以下の場合はノード[j]に関し
て処理を行ない(ステップ154)、Nに到達した、す
なわち部分ネットワークに含まれる全てのノードに関し
て処理を終えた場合にはインデックスiを1つ進め、再
び全てのjに関して処理を行なう(ステップ155)。 【0091】変数aにノード[i]の全体のネットワー
クでの番号を格納し、変数bにノード[i]の全体のネ
ットワークでの番号を格納する(ステップ156)。ノ
ード[i]からノード[j]への強さ:部分ネットワー
クの強さ[i,j]は強さ[a,b]であるため、この
値を格納する(ステップ157)。インデックスjを1
つ進め(ステップ158)、次のノードに関して処理を
続ける。 【0092】このようにして全てのノードに関して処理
を行なうと、必要なリンク情報の取り出しが完了する。 (2) リンクの強さを考慮した距離を用いる方法 この方法では、テキストから抽出された各キーワードに
ついて、各キーワードを中心とし、キーワード連想ネッ
トワークのリンクをマーカパッシング手法を用いて、リ
ンクの強さに応じてマーカのzorchの値を減少さ
せ、最終的にzorchが到達した範囲までのノードと
リンクのみを取り出した、部分ネットワークとACT*
の式とを用いて活性値を求める。求まった部分ネットワ
ークの各ノードの活性値をキーワード連想ネットワーク
の対応するノードに加える。これを、全てのキーワード
に関して行なうことにより、キーワード連想ネットワー
クの全ノードの活性値を求める。 【0093】すなわち、先の(1) の例では隣接するノー
ドを一つ進む毎に距離を一つ減らしたが、活性の伝搬は
リンクの強さに依存するため、この方法ではリンクの強
さを考慮した関数を用いて距離を算出する。これは先に
説明した(1) の例の部分ネットワーク作成部を置き換え
ることにより実現可能である。 【0094】部分ネットワークの作成部の一例を図16
を用いて説明する。先の(1) の例での部分ネットワーク
作成部と同様に再帰的に処理を行なう。引数として与え
られた起点を図17のような部分ネットワークに登録す
る(ステップ161)。インデックスiを0に初期化す
る(ステップ162)。処理していない起点に隣接する
ノードがまだ存在する場合には処理を行なう(ステップ
163)。 【0095】隣接するノードと起点の距離を距離関数を
用いて求める。この例では一例として、起点ノードから
隣接ノードへのリンクの強さの逆数を距離として用い
る。すなわち、1/強さ[起点,隣接ノード]を起点か
ら隣接ノードへの距離とする。起点から隣接ノードへの
距離の値を変数「距離」から引いた値を変数として次の
距離に格納し(ステップ164)、次の距離が負でない
ならば、処理を行なう(ステップ165)。隣接ノード
が既に部分ネットワークとして登録されている場合には
(ステップ166)、次の距離が登録されたときの距離
よりも大きい場合にのみ(ステップ167)、部分ネッ
トワーク作成部を再帰的に呼び出すことにより更新を行
なう(ステップ168)。隣接ノードが登録されていな
い場合には(ステップ166)、部分ネットワーク作成
部を再帰的に呼び出すことにより登録を行なう(ステッ
プ168)。インデックスiを1つ進めて(ステップ1
69)、次の隣接ノードの処理を行なう。 【0096】なお、上記手法に加え、さらに活性値情報
を全体ネットワークの一部として持たせるのではなく、
図18のような活性値情報テーブルを独立に持たせ、活
性値に変化のあったノードの活性値だけを記憶させるこ
とにより、文書の得点を計算する際に活性が初期状態
(0)のままのノードは考慮する必要がなくなり、文書
の得点計算を高速化することが可能となる。 【0097】すなわち、部分ネットワークで求めた各ノ
ードの活性値情報を図18のような活性ノードテーブル
に登録することにより、活性値が正であるノードのみの
一覧を作成することができる。 【0098】すなわち、図13のステップ140におい
て、部分ネットワークを全体ネットワークに加える際
に、ノード番号と活性値を図18のような活性ノードテ
ーブルに登録する。既にノードが登録されている場合に
は、部分ネットワークで新たに求まった活性値を足す。
文書の得点を求める際には活性ノードテーブルを参照
し、先頭ノードから順に、ノード番号を求め、ノード番
号を用いて対応するノードの重みを全体ネットワークか
ら得る。次に、活性値を得て、この2つの値から、ノー
ドの得点を得る。上記の処理を活性ノードテーブルに登
録されている全てのノードに関して行なうことにより、
文書の得点を得ることができる。 【0099】また、図1に示した実施例では、表示部7
に表示されたテキストをユーザが読みながら選定された
結果をユーザ自身が5段階で評価し、この評価値をユー
ザが直接入力部8を介して入力する方法を採用してい
る。しかし、このような評価入力手法では、迅速性およ
び的確性を満たすことが困難となる。したがって、選定
結果を簡単かつ的確に評価する手法の出現が望まれる。 【0100】提示されたテキストを評価する手法には、
特開平4−192751号公報に示されている個人向け
電子新聞システムに見られるような、探索や操作の履歴
を用いて検索などの操作が行われた情報に興味があると
判定する方法や、特開平4−77866号公報に示され
ている情報提供システムの情報提供方法に見られるよう
な、情報の提示量と提示時間を元に情報単位あたりの提
示時間から利用者の興味を算出する方法などが知られて
いる。 【0101】しかし、検索や操作の履歴を用いる方法で
は間接的にしかユーザの興味の度合が求められず、また
情報に対して興味はあったが、それ以上の検索や操作を
せずに満足してしまったような情報については興味がな
かった情報と区別することが不可能である。また、情報
の提示量と提示時間を元に、情報単位あたりの提示時間
からユーザの興味を算出する方法では、情報が提示され
た状態で放置されてしまった場合や、考え事をしてしま
ったような場合には、たとえ興味がなくとも重大な興味
があったと判定されてしまう虞がある。 【0102】そこで、ここでは、図1に示すテキスト選
定装置によって選定され、表示されているテキストを見
るユーザ、つまり利用者の視点を追跡し、その移動特性
を解析することにより、提示されているテキストに対し
て利用者が持っている興味の度合を利用者が明示的に入
力することなく、迅速かつ的確に評価する評価装置につ
いて説明する。 【0103】すなわち、この評価装置は、図1に示され
ているテキスト選定装置により重要と判定され、表示さ
れているテキストを利用者が読む際の視線の動きを追跡
する視線追跡装置と、この視線追跡装置により得られた
座標情報をテキストにおける位置情報に変換する座標変
換装置と、変換された位置情報を用いて利用者の興味の
度合を評価する評価値算出装置と、評価の際に用いる係
数と過去の予測値と評価値とを記憶する評価値記憶装置
と、記憶された予測値と評価値とを用いて係数の学習を
行なう学習装置とを備えている。 【0104】この評価装置では、表示されたテキストを
利用者が見る際に、Applied Science LaboratoriesのMo
del 3250Rのような視線(視点)追跡装置を用いて表示
装置上の視点の位置を常に記録する。人間は興味によっ
て表示装置上の視点の運び方が異なる。すなわち、テキ
スト情報を表示している場合、興味のある情報ならば、
視点の動きに乱れが少なく、文字を先頭から順次追う。
逆に興味のない情報であれば、飛ばしながら読んだり、
途中で止めたり、視点が表示装置外に移動する等の乱れ
が発生する。この評価装置では、これらの乱れを検出
し、乱れの度合により提示テキストに対する興味の度合
を評価する。 【0105】測定された興味の度合は、図1に示したテ
キスト選定装置の入力部8に渡され、ユーザ情報として
管理、利用される。なお、この評価装置で測定された興
味の度合は、図1に示したテキスト選定装置に限らず、
他のタイプのテキスト選定装置、たとえば特開平2−1
25363号公報の文書検索装置に見られるようなキー
ワードコネクションによるものにも利用できる。この文
書検索装置では、キーワード間のつながりの強さをネッ
トワークで表現し、検索条件からのつながりの強さを基
に文書検索を行ない、検索結果を利用者が判定/入力
し、判定結果を用いてキーワード間のつながりを学習さ
せ、次回の検索からより利用者の意図に近い挙動を取る
ように変化する。 【0106】肉体的衰えや学習、訓練により視点の運び
は徐々に変化する。したがって、視点の動きに対応する
評価値を徐々に変化、学習させる仕組みが必要である。
図1に示されるテキスト選定装置は、情報を提示する以
外にもファイリング、情報検索、仮名漢字変換の辞書な
どにも利用され、異なるフィードバック情報により学習
することも可能であるため、このような装置に評価予測
機能を持たせた場合、予測と実際の評価値が連続して大
きく異なる場合には、評価装置が現実とずれてしまった
と判定し、評価装置の評価に用いる係数を現実に合わせ
るために学習させる必要がある。 【0107】図19には評価装置の一例が示されてい
る。ここで、評価装置より得られた評価値は図1の入力
部8を介してテキスト選定装置に渡される。そして、こ
の図19では図1に示されるテキスト選定装置を番号3
2で示してある。 【0108】文書記憶部31から入力されたテキスト情
報は、テキスト選定装置32により利用者にとってどの
程度重要であるか判定され、重要であると判定されたも
のに関してのみ点数付けされ、点数と共に情報記憶装置
33に記憶される。 【0109】制御装置34はテキスト選定装置32によ
り付加された点数を基に、情報記録装置33より利用者
にとって有用と思われるテキスト情報を取り出し、入力
装置35からの要求に合わせて表示装置36にテキスト
情報を表示する。 【0110】視線追跡装置37は表示装置36に表示さ
れているテキスト情報を読む利用者の視線の動きを追跡
し、表示装置36上の利用者の視点の位置を座標情報と
して座標変換装置38に渡す。 【0111】座標変換装置38は、情報記憶装置33と
制御装置34より表示装置36に表示されているテキス
ト情報を獲得し、視線追跡装置37より得た表示装置3
6上の利用者の視点の位置をテキスト情報の座標に変換
する。 【0112】入力装置35より次文書表示命令もしくは
終了命令が入力されると、変換された座標情報はテキス
ト情報と共に評価値算出装置39に渡される。評価値算
出装置39は、評価値記憶装置40から評価に用いる係
数を読み込み、該情報から利用者の興味の度合を判定
し、算出された評価値をテキスト選定装置32にフィー
ドバック情報として渡す。テキスト選定装置32は、こ
のフィードバック情報を基に学習を行なう。 【0113】学習装置41は、情報記憶装置33からテ
キスト選定装置32が付加した点数と評価値算出装置3
9が行なった評価の結果とを受け取り、評価値記憶装置
40に保存し、両者が大きく異なる場合には評価値算出
装置39の学習を行ない、評価値記憶装置40に学習後
の係数を保存する。 【0114】次に、図20を参照しながら制御装置34
の働きを説明する。情報記憶装置33より文書情報とテ
キスト選定装置32が付加した得点とを読み込み、座標
変換装置38に読み込んだ文書の番号を通知する。(ス
テップ211)。変数である表示開始行を1に初期化す
る(ステップ212)。表示開始行からN行分の文書情
報を表示装置36に表示する(ステップ213)。ただ
し、Nとは表示装置36に一度に表示することが可能な
行数であるとする。 【0115】表示開始行を座標変換装置38に通知し
(ステップ214)、入力装置35からの命令の入力を
待つ(ステップ215)。入力があった場合、入力が次
ページ表示命令ならば(ステップ216)、表示開始行
をNだけ進めてステップ213に戻る(ステップ21
7)。入力が次文書表示命令ならば(ステップ21
8)、評価開始を座標変換装置38に通知し(ステップ
219)、ステップ211に戻る。入力が終了命令なら
ば(ステップ220)、評価開始を座標変換38に通知
し(ステップ221)、終了する。 【0116】次に、図21を参照しながら座標変換装置
38の働きを説明する。制御装置34より現在表示して
いる文書の文書番号を受け取る(ステップ231)。受
け取った文書番号を基に情報記憶装置33より該当文書
を読み込む(ステップ232)。制御装置34より表示
開始行を受け取る(ステップ233)。 【0117】制御装置34から命令がない場合には(ス
テップ234)、視線追跡装置37から表示装置36上
の利用者の視点の座標情報を受け取り(ステップ23
5)、表示開始行情報を基に文書のどの位置を読んでい
るかを判定し、図24のような形式の文書上の座標に変
換し(ステップ236)、ステップ234に戻る。 【0118】制御装置34から命令がある場合(ステッ
プ234)、その命令が表示開始行の変更命令である場
合には(ステップ237)、表示開始行を変更し(ステ
ップ238)、ステップ234に戻る。その命令が表示
開始行の変更命令でない場合で(ステップ237)、そ
の命令が評価開始命令でない場合には(ステップ23
9)、ステップ234に戻る。その命令が評価開始命令
である場合には(ステップ239)、評価値算出装置3
8を起動し(ステップ240)終了する。 【0119】次に、実例を用いて座標変換例を説明す
る。表示装置36に図22に示すような文書の一部が表
示されているとする。ここでは6行目から表示されてい
るので表示開始行は6である。また、表示可能な行数
(N)は12である。視線追跡装置37から表示装置3
6の左上を(0,0)とした座標が入力として一定間隔
で座標変換装置38に渡される。ここでは表示装置36
の左上を(0,0)、右下を(100,100)とする
座標が渡されるものとし、利用者が表示装置36以外の
場所を見た場合は無視する。 【0120】今、視線追跡装置37から図23に示すよ
うな入力があったとする。この場合、表示装置36上の
視点の位置は図25中に「×」で示す位置であり、視点
は図26に実線で示すように移動したと考えられる。 【0121】座標変換装置38では、このような座標情
報を文書の位置情報に変換する。上の例では座標(4,
2)は[6,1]に変換する。ただし[行、文字数]で
[6,1]は6行目の1文字目を意味する。同様にし
て、図24のように全ての座標を変換して評価値算出装
置39に渡す。 【0122】評価値算出装置39では変換後の座標情報
を用いて利用者がどの程度表示文書に対して興味を持っ
たかを評価する。この評価の方法には様々な方法が考え
られる。たとえば、利用者が余りにも早く目を通すと、
それは内容を理解していないと判定し、文字を処理する
速度が一定速度以内である確率を算出し、これを評価値
とする方法や、文書の領域をどれだけくまなく見たかを
基にその割合いを評価値とする方法、文書を読んでいる
間に表示装置36の領域外に視点が移動した回数を用い
て、回数が多くなれば興味が薄いと評価する方法、視点
の動きが文字の並びと逆行する回数を用いて、回数が多
くなれば興味が薄いと評価する方法や、さらにこれらの
組合せにより数多くの方法が考えられる。また、これら
の評価にニューラルネットワークを用いることも可能で
ある。 【0123】ここでは、一例として、文書の領域をどれ
だけくまなく見たかを基に、その割合いを評価値として
いる。図27には上記観点で評価値を算出する処理の流
れが示されている。 【0124】まず、現在対象としている文書を情報記憶
装置33より読み込み(ステップ331)、全文字数を
数える(ステップ332)。利用者が目を通した文字を
カウントするための変数である処理済み文字数を0に初
期化する(ステップ333)し、一つ前の座標を記憶し
ておくための変数である前の座標を[0,0]に初期化
する(ステップ334)。 【0125】入力座標がまだある場合には(ステップ3
35)、次の座標を一つ読み込む(ステップ336)。
読み込んだ座標が前の座標と同じ行にある場合には(ス
テップ337)、この二つの座標間の文字を読んだとみ
なし、この間にある文字数を処理済み文字数に加える
(ステップ338)。 【0126】読み込んだ座標を変数である前の座標に代
入し(ステップ339)、ステップ335に戻る。ステ
ップ335で次の座標が存在しない場合には、評価値記
憶装置37より係数を読み込み(ステップ340)、評
価値を求める(ステップ341)。求まった評価値を学
習装置38とテキスト選定装置32に出力して(ステッ
プ342)、終了する。 【0127】たとえば全文字数が100の文書で、図2
8中に実線で示すように視線が動いた場合には、処理済
みの文字数は90となり、評価値は(90/100)×
係数となる。たとえば係数が5だとすると、評価値は
4.5となる。一方、同じ文書を図29中に実線で示す
ように視線が動いた場合には、処理済みの文字数は50
となり、評価値は(50/100)×係数となる。係数
が5であれば、評価値は2.5となり、利用者は図28
の場合に比べて興味が無かったと評価される。 【0128】学習装置41は利用者モデル32からの予
測値と評価値算出装置39からの評価値を決められた回
数分(H回)保持し、これらの値の差が連続して一定の
閾値を越える場合には、係数を学習させ、差が各回にお
いて半分になるように係数を設定する。すなわち、予測
値と評価値の差が全て半分となるような係数を新たに選
ぶ。 【0129】これは、新しい係数={現在の係数(予測
値−評価値)/2評価値}+現在の係数により求まる。
これをH回全ての予測値と評価値の組に対して求め、そ
の平均を新しい係数とする。たとえば、係数が5でHが
3、閾値が2だとして、 ・予測値5,評価値2 ・予測値4,評価値1 ・予測値4,評価値2 という組合せが連続して記録された場合、上記の式に当
てはめ、平均を取ると新しい係数は18.75となり、
同じ入力によってより大きな評価が得られるように修正
される。なお、ここで説明した評価装置はテキスト情報
に限らず、図形やビットマップによる絵などの評価にも
利用することが可能である。 【0130】 【発明の効果】本発明によれば、膨大な量のテキストの
中からユーザにとって有益なもののみを選定する際に、
従来のテキスト選定装置では困難とされた、さほど重要
でないキーワードであるが、それらが数多く出現した場
合には、それをユーザにとって必要とするテキストであ
るとして抽出することができる。すなわち、個々のユー
ザによって相違するキーワード相互間の類似性を柔軟に
表現することができ、所望のテキストのみを選定するこ
とができる。
【図面の簡単な説明】 【図1】本発明の一実施例に係るテキスト選定装置の構
成図 【図2】同装置のキーワード連想ネットワーク記憶部に
記憶されているキーワード連想ネットワークの一例を示
す模式図 【図3】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード情報の一例を示す図 【図4】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード間のリンク情報の一例を示す図 【図5】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード間のリンクの強さに関する情報の一例
を示す図 【図6】同装置の活性値計算部の機能を説明するための
流れ図。 【図7】同装置のキーワード記憶部に記憶されたキーワ
ードの一例を示す図 【図8】活性化されたキーワード連想ネットワークの一
例を示す模式図 【図9】同装置のネットワーク更新部の機能を説明する
ための流れ図 【図10】同装置のネットワーク更新部の機能を説明す
るための流れ図 【図11】同装置のネットワーク更新部の機能を説明す
るための流れ図 【図12】同装置のネットワーク更新部により更新され
たキーワード連想ネットワークの一例を示す模式図 【図13】部分ネットワークに限定して活性値を算出す
る位置例における処理の流れ図 【図14】同部分ネットワークを作成するときの処理の
流れ図 【図15】同部分ネットワーク内のノード同士を結ぶリ
ンクの強さ情報を作成するときの処理の流れ図 【図16】別の部分ネットワークを作成するときの処理
の流れ図 【図17】部分ネットワークの登録例の一例を示す図 【図18】部分ネットワークに対応した活性ノードテー
ブルの一例を示す図 【図19】評価装置の一例を示す構成図 【図20】同評価装置における制御装置の動作を示す流
れ図 【図21】同評価装置における座標変換装置の動作を示
す流れ図 【図22】表示装置への表示例を示す図 【図23】座標変換装置への入力座標の例を示す図 【図24】座標変換装置での変化出力の例を示す図 【図25】表示装置上での視点位置を説明するための図 【図26】表示装置上での視点位置の動きを説明するた
めの図 【図27】評価値を得るための処理の流れ図 【図28】利用者が文書に興味がある場合の視線の動き
を説明するための図 【図29】利用者が文書に興味がない場合の視線の動き
を説明するための図 【符号の説明】 1…文書記憶部 2…キーワー
ド抽出部 3…キーワード記憶部 4…活性値計
算部 5…キーワード連想ネットワーク記憶部 6…閾値判定
部 7…表示部 8…入力部 9…キーワード連想ネットワーク更新部 21…ノード 31…情報入力装置 32…テキス
ト選定装置 33…情報記憶装置 34…制御装
置 35…入力装置 36…表示装
置 37…視線追跡装置 38…座標変
換装置 39…評価値算出装置 40…評価値
記憶装置 41…学習装置
フロントページの続き (56)参考文献 特開 平3−94375(JP,A) 特開 平6−35889(JP,A) 特開 平4−192751(JP,A) 特開 平4−106656(JP,A) 特開 平2−224068(JP,A) 特開 平3−122770(JP,A) 東 他,心理効果を考慮した景観画像 の特徴評価法,電子情報通信学会論文誌 D−II,日本,社団法人電子情報通信 学会論文誌,1990年10月25日,Vol. J73−D−II,No.10,p.1655− 1665 (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 JICSTファイル(JOIS)

Claims (1)

  1. (57)【特許請求の範囲】 【請求項1】入力されたテキスト情報の中からユーザに
    有用と思われるテキスト情報を取出して重要度を予測
    し、重要と判定されたテキスト情報をユーザに表示提示
    するテキスト選定装置本体と、 表示されたテキスト情報をユーザが読む際の視線の動き
    を追跡し、この追跡情報から表示されているテキスト情
    報に対するユーザの興味の度合を評価して前記テキスト
    選定装置本体にフィードバックする評価手段と、 この評価手段によって得られた評価値と前記テキスト選
    定装置本体で用いた予測値とを用いて上記評価手段での
    評価の際に用いる係数を学習する学習手段とを具備して
    なることを特徴とするテキスト選定装置。
JP06188594A 1993-09-08 1994-03-31 テキスト選定装置 Expired - Fee Related JP3469302B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06188594A JP3469302B2 (ja) 1993-09-08 1994-03-31 テキスト選定装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-222924 1993-09-08
JP22292493 1993-09-08
JP06188594A JP3469302B2 (ja) 1993-09-08 1994-03-31 テキスト選定装置

Publications (2)

Publication Number Publication Date
JPH07129593A JPH07129593A (ja) 1995-05-19
JP3469302B2 true JP3469302B2 (ja) 2003-11-25

Family

ID=26402971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06188594A Expired - Fee Related JP3469302B2 (ja) 1993-09-08 1994-03-31 テキスト選定装置

Country Status (1)

Country Link
JP (1) JP3469302B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3622668B2 (ja) * 1995-09-04 2005-02-23 松下電器産業株式会社 情報フィルタ装置及び情報フィルタリング方法
JP3470782B2 (ja) * 1996-01-09 2003-11-25 沖電気工業株式会社 情報検索装置
JP3442214B2 (ja) * 1996-03-12 2003-09-02 シャープ株式会社 キーワード抽出方法、概念抽出方法、キーワード抽出装置、及び概念抽出装置
JP3879787B2 (ja) * 1997-08-07 2007-02-14 富士ゼロックス株式会社 文書評価方法および文書評価装置
US6976070B1 (en) 1999-02-16 2005-12-13 Kdd Corporation Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
JP4743740B2 (ja) * 1999-07-16 2011-08-10 マイクロソフト インターナショナル ホールディングス ビー.ブイ. 自動化された代替コンテンツ推奨を作成する方法及びシステム
JP2002366569A (ja) * 2001-06-06 2002-12-20 Sony Corp 広告選択システム及び広告選択方法、並びに記憶媒体
JP4616877B2 (ja) * 2007-12-03 2011-01-19 富士通株式会社 ニーズ情報構築方法、ニーズ情報構築装置、ニーズ情報構築プログラム及びこれを記録した記録媒体
JP5954053B2 (ja) * 2012-08-29 2016-07-20 コニカミノルタ株式会社 検索支援システム、検索支援方法、およびコンピュータプログラム
US20200349198A1 (en) * 2018-01-26 2020-11-05 Mitsubishi Electric Corporation Information presentation device and information presentation system
EP3882786A4 (en) * 2019-05-17 2022-03-23 Aixs, Inc. CLUSTER ANALYSIS PROCESS, SYSTEM AND PROGRAM
JP7209297B2 (ja) * 2019-10-30 2023-01-20 株式会社野村総合研究所 嗜好分析装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224068A (ja) * 1989-02-27 1990-09-06 Toshiba Corp 情報検索システム
JP2829745B2 (ja) * 1989-05-29 1998-12-02 株式会社リコー 文書検索装置
JPH03122770A (ja) * 1989-10-05 1991-05-24 Ricoh Co Ltd キーワード連想文書検索方法
JPH0682369B2 (ja) * 1990-08-27 1994-10-19 工業技術院長 注視点対応日本語文章提示装置
JP2880789B2 (ja) * 1990-11-27 1999-04-12 株式会社東芝 電子記事表示装置及び電子記事表示方法
JPH0635889A (ja) * 1992-07-20 1994-02-10 Hitachi Ltd ニューラルネットワーク装置及びその学習方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
東 他,心理効果を考慮した景観画像の特徴評価法,電子情報通信学会論文誌D−II,日本,社団法人電子情報通信学会論文誌,1990年10月25日,Vol.J73−D−II,No.10,p.1655−1665

Also Published As

Publication number Publication date
JPH07129593A (ja) 1995-05-19

Similar Documents

Publication Publication Date Title
CN112632385B (zh) 课程推荐方法、装置、计算机设备及介质
CN105808590B (zh) 搜索引擎实现方法、搜索方法以及装置
CN111611361A (zh) 抽取式机器智能阅读理解问答系统
CN110457675A (zh) 预测模型训练方法、装置、存储介质及计算机设备
CN110196901A (zh) 对话系统的构建方法、装置、计算机设备和存储介质
CN110909145B (zh) 针对多任务模型的训练方法及装置
JP3469302B2 (ja) テキスト選定装置
CN111898374B (zh) 文本识别方法、装置、存储介质和电子设备
CN110737756B (zh) 确定针对用户输入数据的应答的方法、装置、设备和介质
US11461613B2 (en) Method and apparatus for multi-document question answering
KR102355152B1 (ko) 콘텐트 검색을 위한 방법 및 그 전자 장치
CN112685550B (zh) 智能问答方法、装置、服务器及计算机可读存储介质
CN111813905A (zh) 语料生成方法、装置、计算机设备及存储介质
CN111368555B (zh) 一种数据识别方法、装置、存储介质和电子设备
JP3315781B2 (ja) 利用者情報管理装置、情報フィルタ、情報分類装置、情報再生装置、情報検索装置及び仮名漢字変換装置
Thomas et al. Chatbot using gated end-to-end memory networks
CN111666376A (zh) 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置
CN107765883A (zh) 输入法的候选词语的排序方法和排序设备
CN116975221A (zh) 文本阅读理解方法、装置、设备及存储介质
JP3499658B2 (ja) 対話支援装置
CN114780809A (zh) 基于强化学习的知识推送方法、装置、设备及存储介质
CN116414940A (zh) 标准问题的确定方法、装置及相关设备
CN113468311A (zh) 一种基于知识图谱的复杂问句问答方法、装置及存储介质
CN114528469A (zh) 推荐方法、装置、电子设备、存储介质
Li Personalized Dialogue Generation Method of Chat Robot Based on Topic Perception

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees