JPH07129593A - Text selecting device - Google Patents

Text selecting device

Info

Publication number
JPH07129593A
JPH07129593A JP6061885A JP6188594A JPH07129593A JP H07129593 A JPH07129593 A JP H07129593A JP 6061885 A JP6061885 A JP 6061885A JP 6188594 A JP6188594 A JP 6188594A JP H07129593 A JPH07129593 A JP H07129593A
Authority
JP
Japan
Prior art keywords
keyword
text
node
network
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6061885A
Other languages
Japanese (ja)
Other versions
JP3469302B2 (en
Inventor
Nobuhiro Shimogoori
信宏 下郡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06188594A priority Critical patent/JP3469302B2/en
Publication of JPH07129593A publication Critical patent/JPH07129593A/en
Application granted granted Critical
Publication of JP3469302B2 publication Critical patent/JP3469302B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a text selecting device capable of selecting and providing a text which is supposed to be valuable for user. CONSTITUTION:After extracting a key word from the objective text by a key word extracting part 2 and calculating a node active value on the key word associative network of the key word by an active value calculation part 4, the device propagates the active value onto the key word associative network, calculates the score of the objective text based on the active value of all the nodes on the key word associative network after active propagation and information on weight and displays the text on a display part 7 when the calculated score is not less than a prescribed threshold value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テキスト選定装置に係
り、特に、新たに与えられたテキストの中からユーザに
とって価値があると思われるテキストをたとえばキーワ
ード連想ネットワークを用いて選定するテキスト選定装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a text selection device, and more particularly to a text selection device for selecting a text that is of value to a user from newly added texts, for example, by using a keyword association network. Regarding

【0002】[0002]

【従来の技術】近年、さまざまな情報が氾濫し、文献の
累増をもたらしている。これらの文献にはユーザにとっ
て有益なものが多く含まれている。しかし、これらの文
献を利用しようとしても、あまりにも文献数が多いた
め、必要な文献への的確なアクセスが困難になってい
る。
2. Description of the Related Art In recent years, various kinds of information have been flooded, and the number of documents has increased. Many of these documents are useful to the user. However, even if one tries to use these documents, the number of documents is so large that it is difficult to accurately access the necessary documents.

【0003】そこで、膨大な文献の中からユーザにとっ
て有益なものを選定するために、テキスト検索手段を用
いて選定するテキスト選定装置が利用されつつある。こ
のテキスト検索手段は、キーワードによる絞り込みと、
キーワード空間内のベクトルを利用するものとの2種類
に大別される。
Therefore, in order to select a useful one for a user from a vast amount of documents, a text selecting device for selecting using a text search means is being used. This text search method is
It is roughly divided into two types, one that uses a vector in the keyword space.

【0004】キーワードによる絞り込みとしては、単に
ユーザが指定したキーワードをそのまま利用するもの
や、キーワード間の類似性を定義したシソーラス情報を
用いてユーザが指定したキーワードおよび類似したキー
ワードまでをも含めたキーワード群により選定を行なう
方法などが知られている。
The narrowing down by keywords simply uses the keywords specified by the user as it is, or includes the keywords specified by the user and the similar keywords by using thesaurus information that defines the similarity between the keywords. A method of performing selection by group is known.

【0005】一方、キーワード空間のベクトルとして表
現する手法としては、過去に使われたテキスト内のキー
ワードを予め抽出し、この抽出されたN個のキーワード
を用いてN次元のキーワード空間を作成した後、作成し
たキーワード空間内で該テキストの位置を表現し、これ
がユーザの興味の範囲内であるか否かを判定することに
より選定を行なうものがある(Peter W. Foltz and Sus
an T. Dumais(PERSO NALIZED Information Delivery:AN
ANALYSIS of Information Filtering Methods[COMMUNI
CATIONS OF THE ACM Dec 1992 Vo135, No.12 pp51-pp6
0] ))。
On the other hand, as a method of expressing as a vector of the keyword space, after extracting the keywords in the text used in the past in advance and creating an N-dimensional keyword space using the N extracted keywords, , There is one that makes a selection by expressing the position of the text in the created keyword space and judging whether or not this is within the range of interest of the user (Peter W. Foltz and Sus.
an T. Dumais (PERSO NALIZED Information Delivery: AN
ANALYSIS of Information Filtering Methods [COMMUNI
CATIONS OF THE ACM Dec 1992 Vo135, No.12 pp51-pp6
0])).

【0006】また、キーワード空間を動的に扱う方法と
して、類似するキーワード同士を接続して、本来のキー
ワードのみならず類似するキーワードからもテキストを
選定するキーワードコネクションを利用する方法がある
(特開平2−42564号公報、特開平2−12536
3号公報)。かかる文書検索装置では、ユーザが入力し
たキーワードに基づき、キーワード関連表を用いてデー
タベース中のテキストの確度を計算し、閾値以上のもの
を抽出して検索結果としている。
Further, as a method of dynamically handling a keyword space, there is a method of connecting similar keywords to each other and using a keyword connection for selecting text not only from the original keyword but also from the similar keywords (Japanese Patent Laid-Open No. Hei 10-1999). JP-A-2-42564 and JP-A-2-12536.
3 gazette). In such a document search device, the accuracy of the text in the database is calculated based on the keyword input by the user using the keyword association table, and the search results are extracted by extracting the ones that are equal to or more than the threshold value.

【0007】しかし、キーワードによる絞り込みやキー
ワード空間のベクトルとして表現する方法を用いてテキ
ストの選定を行った場合には、機械的検索に頼るため、
ユーザ特有のキーワード間の類似性を柔軟に表現するこ
とができない問題があった。また、重要度の低いキーワ
ードを数多く含むテキストにあっては、キーワードがノ
イズに埋もれてしまい、抽出することが困難であった。
However, when text is selected using a method of narrowing down by a keyword or expressing as a vector of a keyword space, since it depends on a mechanical search,
There is a problem that the similarity between keywords unique to the user cannot be flexibly expressed. Moreover, in a text including many keywords of low importance, the keywords are buried in noise, and it is difficult to extract them.

【0008】さらに、新しいキーワードが生じた場合に
際し、個々のキーワードを逐次ユーザが入力しているた
め、シソーラス辞書やキーワード空間の更新に多大な労
力や計算資源等が必要であるという問題もあった。
Further, when a new keyword is generated, the user inputs the individual keywords one by one, so that updating the thesaurus dictionary and the keyword space requires a great deal of labor and computational resources. .

【0009】また、キーワードコネクションを用いる方
法では、ユーザ固有のキーワード間の類似情報を保持し
つつ、与えられたキーワードからユーザにとって関連が
深いと思われるテキストを検索することは可能である
が、不特定のテキストに対してどの程度興味を持ってい
るかということを判定することが不可能であった。
In addition, with the method using the keyword connection, it is possible to search the text which is considered to be closely related to the user from the given keyword while retaining the similarity information between the keywords unique to the user. It was impossible to determine how interested you were in a particular text.

【0010】たとえば、ある文献についてユーザが自分
にとって興味のあるものかどうかを判断する場合には、
一般に、ユーザは内容を一つ一つじっくり読んでいるの
ではなく、文章全体を眺めるように読んでゆき、非常に
重要なキーワードが現れたときや、さほど重要でないキ
ーワードでもそれらが数多く現れたときに、さらにじっ
くりと読むという二重の行動パターンをとることがあ
る。前者のような行動パターンの場合はキーワードによ
る従来の検索手法で十分対応できるが、後者のような場
合には所望のテキストがノイズに埋もれてしまう可能性
がある。
For example, in the case of judging whether a user is interested in a certain document,
Generally, users do not read the contents one by one, but rather read the whole sentence and when very important keywords appear, or when a number of even less important keywords appear. In addition, it may take a double action pattern of reading more carefully. In the case of the former behavior pattern, the conventional search method using keywords can be sufficiently dealt with, but in the latter case, the desired text may be buried in noise.

【0011】そこで、このような人間の判定基準を計算
機に取り込むため、人間の行動を情報処理装置としてモ
デル化した認知モデルを用いる試みがなされている。た
とえば、John R.Anderson 氏の提唱するACT* (The
Architecture of Cognition:Harvard University Press
1983,ISBN 0-674-04426-6)もこのような認知モデルの
一つとして知られている。この理論は、人間の持つ概念
をネットワーク上の一つのノードとして表し、このネッ
トワーク上に活性を伝搬させ、活性が高いものが現在思
い出している概念であるとすることにより、人間の連想
記憶能力を表現する。
Therefore, in order to incorporate such human judgment criteria into a computer, an attempt has been made to use a cognitive model in which human behavior is modeled as an information processing device. For example, ACT * (The
Architecture of Cognition: Harvard University Press
1983, ISBN 0-674-04426-6) is also known as one of such cognitive models. This theory expresses the concept of human beings as one node on the network, propagates the activity on this network, and assumes that the one with high activity is the one currently remembered. Express.

【0012】しかし、このような認知モデル化された情
報処理装置としてテキスト選定装置を構成した場合、デ
ータベースの全てのテキスト群に対して全てのキーワー
ド群をキーワード連想ネットワーク上で活性化させて評
価しなければならないため、いわゆる計算爆発が起こり
非現実的である。
However, when a text selection device is configured as such a cognitive modeled information processing device, all keyword groups for all text groups in the database are activated and evaluated on the keyword association network. Since it must be done, so-called computational explosion occurs and is unrealistic.

【0013】[0013]

【発明が解決しようとする課題】上述のように、従来技
術によるテキスト選定は、機械的検索に頼るためユーザ
特有のキーワード間の類似性を柔軟に表現することがで
きない問題があった。また、重要度の低いキーワードが
数多く出現するテキストの抽出は、キーワードがノイズ
に埋もれてしまい困難であった。さらに、新しいキーワ
ードが生じた場合に際し、逐次ユーザが入力しているた
め、シソーラス辞書やキーワード空間の更新に多大の労
力や計算資源等が必要であるという問題があった。
As described above, the conventional text selection has a problem that it is not possible to flexibly express the similarity between the keywords peculiar to the user because it depends on the mechanical search. In addition, it is difficult to extract a text in which many keywords of low importance appear because the keywords are buried in noise. Further, when a new keyword is generated, the user successively inputs it, which requires a great deal of labor and calculation resources for updating the thesaurus dictionary and the keyword space.

【0014】また、キーワードコネクションを用いる方
法では、ユーザ固有のキーワード間の類似情報を保持し
つつ、与えられたキーワードからユーザにとって関連が
深いと思われるテキストを検索することは可能だが、不
特定のテキストに対してどの程度興味をもっているかと
いうことを判定することが不可能であった。
Further, in the method using the keyword connection, it is possible to search the text which seems to be closely related to the user from the given keyword while retaining the similarity information between the keywords unique to the user, but it is not specified. It was impossible to determine how much interest you had in the text.

【0015】さらに、認知モデル化された情報処理装置
としてテキスト検索装置を構成した場合、データベース
の全てのテキスト群に対して全てのキーワード群をキー
ワード連想ネットワークで活性化させて評価しなければ
ならないため、計算爆発が起こり非現実的であった。
Further, when a text search device is configured as a cognitive modeled information processing device, all keyword groups for all text groups in the database must be activated by the keyword association network for evaluation. , A computational explosion occurred and was unrealistic.

【0016】そこで、本発明の第1の目的は、ユーザ固
有のキーワード間の類似性を柔軟に表現できるテキスト
選定装置を提供することである。また、第2の目的は、
重要度の低いキーワードが数多く出現するテキストに対
しても、テキストの選定を可能とするテキスト選定装置
を提供することである。さらに、第3の目的は、キーワ
ード間の類似性情報の管理を容易ならしめるテキスト選
定装置を提供することである。また、第4の目的は、キ
ーワード連想ネットワークを用いた際に問題となる計算
爆発をなくし、極めて高速にかつ現実的にテキストの選
定を行うことができるテキスト選定装置を提供すること
である。
Therefore, a first object of the present invention is to provide a text selection device capable of flexibly expressing the similarity between keywords unique to a user. The second purpose is
It is an object of the present invention to provide a text selection device capable of selecting a text even for a text in which many keywords of low importance appear. Furthermore, a third object is to provide a text selection device that facilitates management of similarity information between keywords. A fourth object of the present invention is to provide a text selection device which eliminates the computational explosion that is a problem when using a keyword association network and can select a text extremely rapidly and realistically.

【0017】[0017]

【課題を解決するための手段】上記課題を解決するため
に、本発明者は、新たなテキストのみを対象にして考え
た場合には、キーワード群をキーワード連想ネットワー
クで作り出すのではなく、テキスト全体を評価し、これ
を閾値で判定するようにすれば、従来ならばキーワード
単位で閾値を設けて切り捨てていたキーワードをも考慮
したテキスト選定を行えることに着目した。
In order to solve the above problems, when the present inventor considers only a new text, the keyword group is not created by the keyword association network, but the entire text is created. It was noted that if the above is evaluated and judged by a threshold value, text selection can be performed in consideration of a keyword that was conventionally cut off by setting a threshold value for each keyword.

【0018】すなわち、請求項1のテキスト選定装置
は、個々のキーワードに対応した大きさに関する情報お
よび重みに関する情報を持つノードおよびノード間を接
続するリンクを備えたキーワード連想ネットワークを用
いてユーザが所望としているテキストの選定を行うテキ
スト選定装置において、前記キーワード連想ネットワー
ク上の全ノードの活性値を初期状態に設定する手段と、
対象としているテキストから所定のキーワードを抽出す
るキーワード抽出手段と、この手段により抽出されたキ
ーワードが前記キーワード連想ネットワーク上にノード
として存在するか否かを判断する判断手段と、この判断
手段により前記抽出されたキーワードがノードとして存
在すると判断されたときに前記大きさに関する情報に基
づいて前記抽出されたキーワードに対応するノードの活
性値を算出する活性値算出手段と、この手段により算出
されたノードの活性値を前記キーワード連想ネットワー
ク上に伝搬させる活性伝搬手段と、活性伝搬後における
前記キーワード連想ネットワーク上の全ノードの活性値
と重みに関する情報とに基づいて前記対象としているテ
キストの得点を算出する得点算出手段と、この手段によ
り算出されたテキストの得点が所定の閾値以上のときに
該テキストをユーザに提示する提示手段とを備えたこと
を特徴としている。
That is, the text selecting device according to the first aspect is desired by the user by using a keyword associative network provided with nodes having information about size and weight corresponding to individual keywords and links connecting the nodes. In the text selection device for selecting the text, the means for setting the active value of all nodes on the keyword associative network to the initial state,
Keyword extracting means for extracting a predetermined keyword from the target text, judging means for judging whether or not the keyword extracted by this means exists as a node on the keyword associative network, and the extracting means by this judging means. When the determined keyword is present as a node, the active value calculating means for calculating the active value of the node corresponding to the extracted keyword based on the information regarding the size, and the active value calculating means for calculating the active value of the node Activeness propagating means for propagating an activeness value on the keyword associative network, and a score for calculating the score of the target text based on the activeness values and information on weights of all nodes on the keyword associative network after activeness propagation The calculation means and the text calculated by this means DOO scores is characterized in that a presentation unit for presenting the text to the user when the predetermined threshold value or more.

【0019】なお、前記活性値算出手段は、前記テキス
トから抽出されたキーワードについて、前記キーワード
連想ネットワーク上の各キーワードを中心とする所定領
域の部分ネットワークについて活性値を求めるものであ
ると、計算量を大幅に低減できるので好ましい。部分ネ
ットワークは、各キーワードを中心とする前記キーワー
ド連想ネットワーク上の距離によって決めてもよいし、
各キーワードを中心とする前記キーワード連想ネットワ
ーク上のリンクの強さによって決めてもよい。
It is to be noted that the activity amount calculation means calculates the activity value of a keyword extracted from the text for a partial network of a predetermined area centered on each keyword on the keyword associative network. Is significantly reduced, which is preferable. The partial network may be determined by the distance on the keyword associative network centered on each keyword,
It may be determined by the strength of the link on the keyword associative network centering on each keyword.

【0020】また、前記提示手段は、提示されたテキス
トに対する評価値を入力する手段と、この手段により入
力された評価値に基づいて前記抽出されたキーワードに
対応するノードの大きさに関する情報を更新する手段と
を含んでいることが好ましい。
The presenting means updates the information about the size of the node corresponding to the extracted keyword based on the evaluation value input by this means, and the means for inputting the evaluation value for the presented text. It is preferable to include a means for doing so.

【0021】また、前記提示手段は、提示されたテキス
トをユーザが読む際の視線の動きを追跡し、この追跡情
報からテキストの価値を評価する評価手段を備えている
ことが好ましい。
Further, it is preferable that the presenting means includes an evaluating means for tracking the movement of the line of sight when the user reads the presented text and evaluating the value of the text from the tracking information.

【0022】請求項7のテキスト選定装置は、入力され
たテキスト情報の中からユーザに有用と思われるテキス
ト情報を取出して重要度を予測し、重要と判定されたテ
キスト情報をユーザに表示提示するテキスト選定装置本
体と、表示されたテキスト情報をユーザが読む際の視線
の動きを追跡し、この追跡情報から表示されているテキ
スト情報に対するユーザの興味の度合を評価して前記テ
キスト選定装置本体にフィードバックする評価手段と、
この評価手段によって得られた評価値と前記テキスト選
定装置本体で用いた予測値とを用いて上記評価手段での
評価の際に用いる係数を学習する学習手段とを備えてい
る。
A text selecting apparatus according to a seventh aspect extracts text information that is considered useful to the user from the input text information, predicts the degree of importance, and displays and presents the text information determined to be important to the user. The main body of the text selection device tracks the movement of the line of sight when the user reads the displayed text information, and the degree of interest of the user with respect to the displayed text information is evaluated from the tracking information to determine the main body of the text selection device. Evaluation means for feedback,
There is provided learning means for learning the coefficient used in the evaluation by the evaluation means by using the evaluation value obtained by the evaluation means and the predicted value used in the text selection device body.

【0023】[0023]

【作用】請求項1のテキスト選定装置では、まず、新た
に対象としているテキストから所定のキーワードを抽出
する。抽出されたキーワードが、キーワード連想ネット
ワーク上に存在する場合、すなわち各キーワードに対応
するノードがキーワード相互間の接続関係を表したキー
ワード連想ネットワーク上に存在する場合には、そのノ
ードの大きさにより決まる初期値をノード活性値とす
る。ノードが存在する全てのキーワードについてノード
の活性値を求めた後、この活性値をキーワード連想ネッ
トワーク上に後述するACT* の方法により伝搬させ、
最終的なキーワード連想ネットワーク全体のノードの活
性値を求める。
According to the text selecting apparatus of the first aspect, first, a predetermined keyword is extracted from the newly targeted text. If the extracted keyword exists on the keyword association network, that is, if the node corresponding to each keyword exists on the keyword association network showing the connection relation between keywords, it is determined by the size of the node. The initial value is the node activation value. After obtaining the active value of the node for all the keywords in which the node exists, the active value is propagated on the keyword associative network by the method of ACT * described later,
The final activity value of the nodes in the entire keyword association network is calculated.

【0024】次に、キーワード連想ネットワーク上の全
てのノードの活性値とそのノードの重要度を表す重みと
を考慮した関数により各々のノードの得点を求め、全て
のノードの得点を合計することにより、個々のユーザに
とっての価値を表すテキストの得点を求める。
Next, the score of each node is obtained by a function considering the activity values of all the nodes on the keyword associative network and the weight representing the importance of the node, and the scores of all the nodes are summed up. , Find a text score that represents the value to an individual user.

【0025】このようにして求めたテキストの得点がユ
ーザの定める閾値を越えているとき、このテキストをユ
ーザに提示する。ユーザはこのテキストについて判定を
行って、その判定結果をシステムに与える。これによ
り、テキストから抽出された全てのキーワードに対応す
るノードの大きさをテキストの得点分だけ増加させ、ま
たテキストから抽出されたキーワードに対応するノード
相互間にリンクを持たせる。以上のようにして、キーワ
ード連想ネットワークの学習が行なわれる。
When the score of the text thus obtained exceeds the threshold value set by the user, this text is presented to the user. The user makes a judgment on this text and gives the judgment result to the system. As a result, the size of the nodes corresponding to all the keywords extracted from the text is increased by the score of the text, and the nodes corresponding to the keywords extracted from the text have links. The keyword associative network is learned as described above.

【0026】一方、抽出されたキーワードがキーワード
連想ネットワーク上にキーワードとして存在しない場
合、すなわちキーワードに対応するノードがキーワード
連想ネットワーク上に存在しない場合には、上記テキス
トの選定を行った後、キーワード連想ネットワークにつ
いて学習を行なう。すなわち、該ノードをキーワード連
想ネットワークに加え、ユーザに該キーワードを表示し
て重みの入力を促し、この入力値を対応するノードの重
みに設定する。同様に、テキストから抽出された全ての
キーワードに対応するノードの大きさをテキストの評価
値分だけ増加させ、また提示されたテキストから抽出さ
れたキーワードに対応するノード相互間にリンクを持た
せることによって、キーワード連想ネットワークの学習
を行う。
On the other hand, when the extracted keyword does not exist as a keyword on the keyword association network, that is, when the node corresponding to the keyword does not exist on the keyword association network, after selecting the text, the keyword association is performed. Learn about networks. That is, the node is added to the keyword association network, the keyword is displayed to the user to prompt the user to input the weight, and this input value is set as the weight of the corresponding node. Similarly, increase the size of the nodes corresponding to all the keywords extracted from the text by the evaluation value of the text, and provide links between the nodes corresponding to the keywords extracted from the presented text. Learn keyword associative networks.

【0027】したがって、本発明に係るテキスト選定装
置によれば、柔軟に新しいキーワードを取り込むことが
可能となり、ユーザ固有のキーワード間の類似性情報を
得ることができる。
Therefore, according to the text selection device of the present invention, a new keyword can be flexibly taken in, and similarity information between keywords unique to the user can be obtained.

【0028】請求項1のテキスト選定装置において、キ
ーワード連想ネットワーク上で活性を伝搬させる方法と
してはAnderson氏の提唱するACT* 論理を用いてい
る。以下に、その活性を伝搬させる方法について説明す
る。ノードiにおける時間tの活性の変化量は、
In the text selection device of the first aspect, the ACT * logic proposed by Anderson is used as a method of propagating the activity on the keyword association network. The method of propagating the activity will be described below. The amount of change in activity at time t at node i is

【0029】[0029]

【数1】 により表される。[Equation 1] Represented by

【0030】(1) 式の右辺の第1項はノードiの時間t
において獲得する活性の総量を表し、第2項はノードi
の時間tにおいて失われる活性の総量を表している。両
者の差分により変化量を求めることができる。したがっ
て、ノードiの時間tにおける活性の総流入量は、
The first term on the right side of the equation (1) is the time t of the node i.
Represents the total amount of activity acquired in
Represents the total amount of activity lost at time t. The amount of change can be obtained from the difference between the two. Thus, the total inflow of activity at node i at time t is

【0031】[0031]

【数2】 により表される。[Equation 2] Represented by

【0032】(2) 式における右辺の第1項はノードiの
時間tにおけるシステムから直接供給される活性の量を
表し、第2項はノードiの時間tにおける他のノードへ
の活性の流出と流入量を表す。すなわち、活性の流れは
この2種類しかないため、両者の和によりノードiの時
間tにおける活性の総流入量ni (t)となる。
The first term on the right side of the equation (2) represents the amount of activity directly supplied from the system at the time t of the node i, and the second term is the outflow of the activity of the node i to other nodes at the time t. And inflow. That is, since there are only two types of active flows, the sum of the two becomes the total active inflow amount n i (t) at the time t of the node i.

【0033】ところで、(1) 式は、各ノードに関する式
であったが、全てのノードの活性値のベクトルAと全て
のノードの総流入活性のベクトルNと活性の変化量を表
現すると以下のようになる。
By the way, although the expression (1) is an expression for each node, the vector A of active values of all nodes, the vector N of total inflow active of all nodes, and the amount of change in activity are expressed as follows. Like

【0034】[0034]

【数3】 同様に、ノード間のリンクの強さを表す行列Rと全ての
活性供給量を表す行列Cを導入すると、(2) 式は以下の
ようになる。
[Equation 3] Similarly, when the matrix R representing the strength of the link between the nodes and the matrix C representing all the active supply amount are introduced, the equation (2) becomes as follows.

【0035】[0035]

【数4】 [Equation 4]

【0036】(3) 式は活性の変化量を求める式である
が、我々が所望としているものは定常状態におけるネッ
トワークの活性の分布を知ることである。定常状態にお
ける活性値の変化量は0であるため、(3) 式の左辺は0
とみなすことができる。純粋な数学的意味においての定
常状態になるためには限りなく長い時間がかかるが、こ
こでは0と近似することで足りる。したがって、(3) 式
および(4) 式から(5) 式を得る。
The expression (3) is an expression for obtaining the change amount of the activity, and what we desire is to know the distribution of the activity of the network in the steady state. Since the amount of change in the activity value in the steady state is 0, the left side of equation (3) is 0.
Can be regarded as It takes an infinitely long time to reach a steady state in a pure mathematical sense, but it is sufficient to approximate 0 here. Therefore, equation (5) is obtained from equations (3) and (4).

【0037】[0037]

【数5】 この(5) 式を変形することにより最終的に以下の式を得
る。
[Equation 5] Finally, the following equation is obtained by modifying this equation (5).

【0038】[0038]

【数6】 [Equation 6]

【0039】なお、Anderson氏によれば、人間の連想記
憶の特性を表すのに妥当な値としてρ* =1,B=0.
8であるとしている。これにより、キーワード連想ネッ
トワーク上の各ノード活性の最終的な値は、
According to Anderson, ρ * = 1, B = 0.
It is supposed to be 8. Therefore, the final value of each node activity on the keyword association network is

【0040】[0040]

【数7】 により近似することができる。[Equation 7] Can be approximated by

【0041】また、請求項7のテキスト選定装置では、
表示されたテキスト情報をユーザが読む際の視線の動き
を追跡し、この追跡情報から表示されているテキスト情
報に対するユーザの興味の度合を評価しているので、ユ
ーザが持っている興味の度合をユーザが明示的に入力す
ることなしにテキスト選定装置を学習させることが可能
となる。
According to the text selection device of claim 7,
Since the movement of the line of sight when the user reads the displayed text information is tracked and the degree of interest of the user with respect to the displayed text information is evaluated from this tracking information, the degree of interest of the user is evaluated. It becomes possible for the user to learn the text selection device without inputting explicitly.

【0042】[0042]

【実施例】以下、図面を参照しながら実施例を説明す
る。図1には本発明の一実施例に係るテキスト選定装置
のブロック構成図が示されている。
Embodiments will be described below with reference to the drawings. FIG. 1 is a block diagram of a text selection device according to an embodiment of the present invention.

【0043】この装置は、テキストの選定を行う部分
と、テキストの選定を行った後にそれをキーワード連想
ネットワークに反映させるための学習を行う部分とに分
けられる。
This apparatus is divided into a part for selecting a text and a part for performing learning for reflecting the selected text on the keyword association network.

【0044】同図において、文書記憶部1は、新たに対
象となるテキストを一時的に記憶しておくためのもので
ある。この文書記憶部1に記憶されたテキストからキー
ワード抽出部2によって所定のキーワードが抽出され
る。
In the figure, the document storage unit 1 is for temporarily storing a new target text. The keyword extraction unit 2 extracts a predetermined keyword from the text stored in the document storage unit 1.

【0045】抽出されたキーワードはキーワード記憶部
3に記憶される。このキーワード記憶部3に記憶された
キーワードについて、活性値計算部4によってキーワー
ドの活性値が求められる。そして、求められた活性値は
キーワード連想ネットワーク記憶部(以下「ネットワー
ク記憶部」という)5に記憶されたキーワード連想ネッ
トワーク上に伝搬される。この伝搬結果に基づいてテキ
ストの得点が計算される。閾値判定部6は、計算された
テキストの得点が所定の閾値以上か否かを判定し、閾値
以上であれば、該テキストを表示すべく表示部7に送出
する。また、表示部7は入力部8から入力されたデータ
やコマンド等を適宜表示する。キーワード連想ネットワ
ーク更新部9は、入力部8により入力される後述する評
価値に基づいてキーワード連想ネットワークを更新す
る。
The extracted keywords are stored in the keyword storage unit 3. With respect to the keyword stored in the keyword storage unit 3, the active value calculation unit 4 obtains the active value of the keyword. Then, the obtained activity value is propagated on the keyword association network stored in the keyword association network storage unit (hereinafter referred to as “network storage unit”) 5. The score of the text is calculated based on this propagation result. The threshold determination unit 6 determines whether the calculated score of the text is equal to or higher than a predetermined threshold, and if the score is equal to or higher than the threshold, the threshold determination unit 6 sends the text to the display unit 7 for display. Further, the display unit 7 appropriately displays data, commands, etc. input from the input unit 8. The keyword association network updating unit 9 updates the keyword association network based on an evaluation value, which will be described later, input by the input unit 8.

【0046】次に、本実施例に係るテキスト選定装置の
各部について詳述する。文書記憶部1に一時的に蓄えら
れた新たなテキストは、公知のキーワード抽出手段(た
とえば、石川徹也:「文意解析処理に基づく主題索引作
成支援システム」,情報処理学会論文誌Vo132, No.2, 1
991 に用いられているキーワード抽出手段)によってキ
ーワードが抽出される。抽出されたキーワードはキーワ
ード記憶部3に記憶される。
Next, each section of the text selection device according to this embodiment will be described in detail. The new text temporarily stored in the document storage unit 1 is a known keyword extraction means (for example, Tetsuya Ishikawa: “Subject index creation support system based on textual analysis processing”, IPSJ Journal Vo132, No. twenty one
Keywords are extracted by the keyword extracting means used in 991). The extracted keywords are stored in the keyword storage unit 3.

【0047】活性値計算部4は、まず、ネットワーク記
憶部5に記憶されているネットワーク上の各キーワード
に対応するノード全てに初期値を与える。そして、対応
するノードが存在する全てのキーワードについての処理
が終了すると、活性値計算部4はネットワーク上に活性
値を伝搬させて最終的な活性値を求める。さらに、各ノ
ードの活性値と重みとを考慮した関数を用いて各ノード
の得点を求める。本実施例においては、ノードの活性値
と重みとの積をノードの得点としている。
The active value calculation unit 4 first gives initial values to all nodes stored in the network storage unit 5 and corresponding to each keyword on the network. Then, when the processing for all the keywords in which the corresponding node exists is completed, the active value calculation unit 4 propagates the active value on the network to obtain the final active value. Furthermore, the score of each node is obtained using a function that takes into account the activation value and weight of each node. In this embodiment, the score of a node is the product of the active value of the node and the weight.

【0048】ここで、本実施例において用いられるキー
ワード連想ネットワークについて説明する。図2はネッ
トワークの一例を示す模式図である。
Here, the keyword association network used in this embodiment will be described. FIG. 2 is a schematic diagram showing an example of a network.

【0049】各キーワードに対応するノード21には、
ユーザの得点の累計を表す「大きさ」と、ユーザにとっ
ての重要度を表す「重み」とが設けられている。各ノー
ド間はリンクが存在する場合と、存在しない場合とがあ
る。リンクが存在する場合、ノードAからノードBへの
「リンクの強さ」は、ノードAが直接リンクを持つ全て
のノードの「大きさ」の合計でノードBの「大きさ」を
割った値により決定する。すなわち、あるノードAから
出る全てのリンクの強さの合計は常に1になる。
In the node 21 corresponding to each keyword,
A “size” that represents the cumulative total of the user's scores and a “weight” that represents the degree of importance to the user are provided. There are cases where links exist between the nodes and cases where links do not exist. When there is a link, the "link strength" from the node A to the node B is the value obtained by dividing the "size" of the node B by the sum of the "sizes" of all the nodes to which the node A has a direct link. Determined by That is, the sum of the strengths of all links from a certain node A is always 1.

【0050】図3は、図2に示したネットワーク上のノ
ード情報がネットワーク記憶部5に記憶されている状態
の一例を示す図である。ノードの属性には「ノード
名」、「大きさ」、「重み」、「活性値」および「得
点」がある。本実施例では、活性値は初期状態において
全て0である。
FIG. 3 is a diagram showing an example of a state in which the node information on the network shown in FIG. 2 is stored in the network storage unit 5. The attributes of the node include "node name", "size", "weight", "active value" and "score". In this embodiment, the active values are all 0 in the initial state.

【0051】図4は、図2に示したネットワーク上のノ
ード間のリンク情報がネットワーク記憶部5に記憶され
ている状態の一例を示す図である。行列のインデックス
(i/j)は、図3におけるノード番号に対応する。ノ
ード間にリンクが存在する場合は、行列の対応する要素
を1で表し、リンクが存在しない場合は0で表す。ノー
ドの自分自身へのリンクは存在せず、必ず0になる。ま
た、ノードiからノードjへリンクが存在する場合は、
同時にノードjからノードiへのリンクも存在するもの
とする。したがって、ノード間リンク情報を表す行列は
必ず対称行列となる。なお、リンク情報は、必ずしも双
方向である必要はなく、単方向のみを記述する三角行列
であってもよい。
FIG. 4 is a diagram showing an example of a state in which the link information between the nodes on the network shown in FIG. 2 is stored in the network storage unit 5. The matrix index (i / j) corresponds to the node number in FIG. When there is a link between nodes, the corresponding element of the matrix is represented by 1, and when there is no link, it is represented by 0. The node has no link to itself and will always be 0. Also, if there is a link from node i to node j,
At the same time, it is assumed that there is a link from node j to node i. Therefore, the matrix representing the inter-node link information is always a symmetric matrix. The link information does not necessarily have to be bidirectional, and may be a triangular matrix that describes only one direction.

【0052】図5は、各ノード間の「リンクの強さ」に
関する情報がネットワーク記憶部5に記憶されている状
態の一例を示す図である。各ノード間のリンクの強さ
は、ノードiからノードjへのリンクの強さを表し、上
記ノード情報とノード間のリンク情報とから求められ
る。たとえば、ノード「ユーザ」とノード「インターフ
ェイス」とのリンクの強さ、すなわちノード番号i=1
からノード番号j=2へのリンクの強さは、 リンクの強さ=90/(80+90) =0.53 となる。
FIG. 5 is a diagram showing an example of a state in which information about the “link strength” between the nodes is stored in the network storage unit 5. The strength of the link between the nodes represents the strength of the link from the node i to the node j, and is obtained from the node information and the link information between the nodes. For example, the strength of the link between the node “user” and the node “interface”, that is, the node number i = 1
From the node number j = 2 to the link number = 90 / (80 + 90) = 0.53.

【0053】次に、活性値計算部4について説明する。
ノード情報の「活性値」属性には、ネットワーク上の全
てのノードの活性値が記憶されている。本実施例におい
ては、初期状態は全て0である。活性値計算部4は、キ
ーワード記憶部3よりキーワード群を読み出し、それぞ
れのキーワードに対応するノードがキーワード連想ネッ
トワーク上に存在する場合には、該ノードの活性値を該
ノードの「大きさ」と同じ値に設定する。全てのキーワ
ードについて処理が終了すると、活性の伝搬を求める。
あるノードの活性は減衰率ρで定められる値により減衰
した値がリンクを持つ隣のノードにリンクの強さに応じ
て分配される。この活性値計算部4の機能を図6に基づ
いて説明する。
Next, the activity value calculation unit 4 will be described.
The "active value" attribute of the node information stores the active values of all the nodes on the network. In this embodiment, all initial states are 0. The activity value calculation unit 4 reads the keyword group from the keyword storage unit 3, and when the node corresponding to each keyword exists on the keyword associative network, the activity value of the node is set as the “size” of the node. Set to the same value. When the processing is completed for all the keywords, activity propagation is calculated.
The activity of a certain node is distributed by the value determined by the attenuation rate ρ to the adjacent node having the link according to the strength of the link. The function of the active value calculation unit 4 will be described with reference to FIG.

【0054】図6は、活性値計算部4の機能を説明する
ための流れ図である。キーワード記憶部3には、図7に
示すような抽出されたキーワードがキーワードリストと
して記憶されているとする。活性値計算部4は、このキ
ーワードリストを参照するためのインデックスiをキー
ワードリストの先頭である1に設定する(ステップ6
1)。
FIG. 6 is a flow chart for explaining the function of the active value calculation unit 4. It is assumed that the keyword storage unit 3 stores the extracted keywords as shown in FIG. 7 as a keyword list. The active value calculation unit 4 sets the index i for referring to this keyword list to 1 which is the head of the keyword list (step 6).
1).

【0055】次に、キーワードリストにi番目のキーワ
ードが存在するか否か、すなわちキーワードリストにま
だ読み込まれていないキーワードが存在するか否かを検
索し(ステップ62)、存在する場合は当該キーワード
を読み込む(ステップ63)。読み込まれたキーワード
が、ネットワーク記憶部5上に記憶されている場合(ス
テップ64)、対応するノードの活性値を該ノードの大
きさと同じ値に設定する(ステップ65)。そして、イ
ンデックスを1つ進め(ステップ66)、これら一連の
処理をキーワードリストの全てのキーワードについて行
う。
Next, it is searched whether or not the i-th keyword is present in the keyword list, that is, whether or not there is a keyword that has not been read in the keyword list (step 62). Is read (step 63). When the read keyword is stored in the network storage unit 5 (step 64), the active value of the corresponding node is set to the same value as the size of the node (step 65). Then, the index is advanced by one (step 66), and the series of processes is performed for all the keywords in the keyword list.

【0056】キーワードリストの全てのキーワードにつ
いての処理を終了すると(ステップ62)、活性値計算
部4は活性値の伝搬を求める(ステップ67)。ネット
ワーク上の各ノードの最終的な活性値は、既に述べたよ
うに、(7) 式により近似される。(7) 式のRは図5に示
したノード間の「リンクの強さ」であり、C* はテキス
トから抽出したキーワードに対応するノードがシステム
により活性化された結果、つまりネットワークに供給さ
れる活性値の量を表す。この活性値の量は、既にステッ
プ65において「活性値」属性に代入されている。した
がって、(7) 式を計算して図3に示した「活性値」属性
に順次書き込めば、ネットワークの活性値の伝搬を求め
ることと等価になる。なお、本実施例においては、(7)
式の連立一次方程式を解くため、SOR(Successive O
ver-Relaxation)法を用いているが、これに限る必要は
ない。
When the processing for all the keywords in the keyword list is completed (step 62), the active value calculation unit 4 obtains the propagation of the active value (step 67). The final liveness value of each node on the network is approximated by Eq. (7), as described above. R in the equation (7) is the “link strength” between the nodes shown in FIG. 5, and C * is the result of activation of the node corresponding to the keyword extracted from the text by the system, that is, is supplied to the network. Represents the amount of activity value. The amount of this active value has already been assigned to the “active value” attribute in step 65. Therefore, if equation (7) is calculated and sequentially written in the “active value” attribute shown in FIG. 3, it is equivalent to obtaining the propagation of the active value of the network. In this example, (7)
SOR (Successive O
ver-Relaxation) method is used, but it is not limited to this.

【0057】次に、キーワード連想ネットワークの学習
に伴うノードの肥大による活性値のオーバーフロー(イ
ンフレ化)を避けるために活性値を正規化する。具体的
には、全てのノードの活性の合計を求め、これを各ノー
ドの活性の値で割り、これを図5の活性値の項に再び記
憶する(ステップ68)。
Next, the active value is normalized in order to avoid overflow (inflation) of the active value due to the enlargement of the nodes accompanying the learning of the keyword association network. Specifically, the sum of the activity of all nodes is calculated, this is divided by the value of the activity of each node, and this is stored again in the term of the activity value of FIG. 5 (step 68).

【0058】次に、活性値計算部4は、活性値と重みと
を考慮した関数により各ノードの得点を求める。ここで
は、活性値と重みとの積により得点を求めるものとす
る。求められたノードの得点は、図5のノードの「得
点」属性に書込まれる(ステップ69)。そして、テキ
ストの得点は、全てのノードの得点を合計することによ
り求められる(ステップ70)。
Next, the activity value calculation unit 4 obtains the score of each node by a function considering the activity value and the weight. Here, it is assumed that the score is obtained by the product of the active value and the weight. The obtained score of the node is written in the "score" attribute of the node in FIG. 5 (step 69). The text score is then calculated by summing the scores of all nodes (step 70).

【0059】たとえば、図2に示したネットワークと図
7(a) に示したキーワードリストとが活性値計算部4に
与えられた場合、活性値は図8(a) のように伝搬し、テ
キストの得点は、 0.15×4 +0.23×4 +0.17×0 +0.14×3 +0.16×2 +0.15×1 =2.41 となる。
For example, when the network shown in FIG. 2 and the keyword list shown in FIG. 7A are given to the active value calculation unit 4, the active value is propagated as shown in FIG. The score is 0.15 × 4 + 0.23 × 4 + 0.17 × 0 + 0.14 × 3 + 0.16 × 2 + 0.15 × 1 = 2.41.

【0060】一方、同じネットワークと図7(b) のキー
ワードリストとが活性値計算部4に与えられた場合、活
性値は図8(b) のように伝搬し、テキストの得点は、 0.13×4 +0.20×4 +0.30×0 +0.12× 3+0.14× 2+0.10×1 =2.06 となる。
On the other hand, when the same network and the keyword list of FIG. 7 (b) are given to the active value calculation unit 4, the active value is propagated as shown in FIG. 8 (b), and the score of the text is 0.13 × 4 + 0.20 x 4 + 0.30 x 0 + 0.12 x 3 + 0.14 x 2 + 0.10 x 1 = 2.06.

【0061】次に、閾値判定部6について説明する。閾
値判定部6は、テキストの得点が閾値以上であるときに
は表示部7に該テキストを表示する旨の制御命令を送
る。したがって、表示部7に該テキストが表示される。
テキストの得点が閾値以下であるときには表示は行われ
ない。
Next, the threshold value judging section 6 will be described. The threshold determination unit 6 sends a control command to the display unit 7 to display the text when the score of the text is equal to or higher than the threshold. Therefore, the text is displayed on the display unit 7.
If the score of the text is less than or equal to the threshold, no display is made.

【0062】このように、表示部7は閾値判定部6の制
御命令にしたがって文書記憶部1に記憶されているテキ
ストを表示する。したがって、上述の例で、閾値判定部
6内に保持されている閾値が2.40と2.06との間、た
とえば、2.20であった場合には、図7(a) のキーワード
リストを生成したテキストはユーザに表示される。一
方、図7(b) のキーワードリストを生成したテキストは
ユーザに表示されないことになる。
In this way, the display unit 7 displays the text stored in the document storage unit 1 according to the control command of the threshold value determination unit 6. Therefore, in the above example, when the threshold value held in the threshold value judgment unit 6 is between 2.40 and 2.06, for example, 2.20, the text that generated the keyword list of FIG. Is displayed to the user. On the other hand, the text that generated the keyword list in FIG. 7B will not be displayed to the user.

【0063】つまり、ネットワークに着目してみると、
ユーザは「インタフェース」というキーワードに興味が
あることが分る。しかし、これは「ユーザインタフェー
ス」の意味であり、ハードウェア間の「通信インタフェ
ース」ではないので、ユーザの本来の意図に合致するこ
とになる。
That is, focusing on the network,
It turns out that the user is interested in the keyword "interface". However, this means a “user interface” and not a “communication interface” between hardware, so that it matches the original intention of the user.

【0064】上述の例ではどちらも「インタフェース」
というキーワードを含んでいたが、ノードの大きさが大
きく、かつノードの重みが小さいノード(この例では
0)を含んでいる場合よりも、ノードの大きさとノード
の重みとが小さくても複数のノードで支持されている場
合の方が、テキストの得点が高いという結果になる。
In the above example, both are "interfaces".
However, even if the node size and the node weight are small, a plurality of nodes are included even if the node size is large and the node weight is small (0 in this example). When the node supports it, the text score is higher.

【0065】したがって、テキストから抽出されたキー
ワードリストに大きさと重みとが小さいノードが数多く
含まれている場合であっても、テキストの得点として大
きいものを得ることが可能となる。しかも、このような
場合はユーザが本来ならば重みの大きいキーワードを単
に知らない場合が多い。よって、このような方法によれ
ば、新しいキーワードを発見することも可能である。逆
に、重みの非常に大きいキーワードが一つだけキーワー
ド群に含まれる場合は、通常のキーワード検索手段によ
り達成することができるので、これと併用するようにし
てもよい。
Therefore, even when the keyword list extracted from the text includes a large number of nodes having small sizes and weights, it is possible to obtain a large text score. Moreover, in such a case, the user often does not simply know a keyword having a large weight. Therefore, according to such a method, it is possible to discover a new keyword. On the contrary, when only one keyword having a very large weight is included in the keyword group, it can be achieved by the ordinary keyword search means, and therefore it may be used together with this.

【0066】このように表示部7に表示されたテキスト
について、ユーザはテキストを判定し、ユーザにとって
の判定結果を評価値として入力部8より入力する。本実
施例においては、0から4までの数字の5段階の評価値
を用い、この数字が高い程ユーザにとって重要なテキス
トであることを表している。さらに、本実施例では、抽
出されたキーワードであって、ネットワーク上に登録さ
れていないものを表示部7に順次表示し、これらのキー
ワードの重みについても同様に5段階評価で入力部8よ
りユーザによって入力することを促すようにしている。
With respect to the text displayed on the display unit 7 in this way, the user judges the text and inputs the judgment result for the user from the input unit 8 as an evaluation value. In the present embodiment, a five-level evaluation value of a number from 0 to 4 is used, and the higher the number, the more important the text to the user. Further, in the present embodiment, the extracted keywords that are not registered on the network are sequentially displayed on the display unit 7, and the weights of these keywords are also evaluated by the user from the input unit 8 by the five-level evaluation. I am trying to encourage you to type by.

【0067】入力部8より入力された判定結果は、キー
ワード連想ネットワーク更新部9に送出される。キーワ
ード連想ネットワーク更新部9では、キーワード記憶部
3に記憶されているキーワードおよび入力された判定結
果に基づいてネットワーク記憶部5に記憶されているネ
ットワークを更新する。
The determination result input from the input unit 8 is sent to the keyword association network updating unit 9. The keyword associative network update unit 9 updates the network stored in the network storage unit 5 based on the keyword stored in the keyword storage unit 3 and the input determination result.

【0068】次に、キーワード連想ネットワーク更新部
9の機能について説明する。キーワード連想ネットワー
ク更新部9は、表示部7に表示されたテキストに対して
入力部8から判定結果が与えられると、ネットワークの
状態を更新する。
Next, the function of the keyword association network updating unit 9 will be described. The keyword association network updating unit 9 updates the state of the network when the text displayed on the display unit 7 receives the determination result from the input unit 8.

【0069】図9乃至図11は、キーワード連想ネット
ワーク更新部9の機能を説明するための流れ図である。
図9に示す処理では、ネットワーク上に登録されていな
いキーワードに対する登録および今回新たにキーワード
抽出部2が抽出したキーワードに対応するノードの大き
さの変更を行っている。
9 to 11 are flowcharts for explaining the function of the keyword association network updating unit 9.
In the process shown in FIG. 9, registration is performed for a keyword that is not registered on the network, and the size of the node corresponding to the keyword newly extracted by the keyword extracting unit 2 this time is changed.

【0070】すなわち、キーワード記憶部5に記憶され
たキーワードリストを参照するためのインデックスiを
キーワードリストの先頭である1に設定する(ステップ
91)。次に、キーワードリストにi番目のキーワード
が存在するか否かを確認し(ステップ92)、存在する
場合は該当するキーワードを読み込む(ステップ9
3)。次に、この読み込まれたキーワードがネットワー
ク記憶部5のノード情報領域に記憶されていない場合
(ステップ94)は、対応するノードをノード情報に追
加し、「ノード名」属性に該キーワードを登録し、「大
きさ」、「重み」、「活性値」およびノードの「得点」
属性に0を代入し(ステップ95)、該キーワードを表
示部7に表示する(ステップ96)。
That is, the index i for referring to the keyword list stored in the keyword storage unit 5 is set to 1 which is the head of the keyword list (step 91). Next, it is confirmed whether or not the i-th keyword is present in the keyword list (step 92), and if it is present, the corresponding keyword is read (step 9).
3). Next, when the read keyword is not stored in the node information area of the network storage unit 5 (step 94), the corresponding node is added to the node information and the keyword is registered in the "node name" attribute. , "Size", "Weight", "Activity" and "Score" of node
0 is assigned to the attribute (step 95), and the keyword is displayed on the display unit 7 (step 96).

【0071】ユーザは、該キーワードの重みを5段階で
評価し、入力部8からその判定結果を入力する(ステッ
プ97)。なお、この判定結果は、0から4の数値によ
り表され、数値が大きいほどユーザにとって重要である
ものとする。
The user evaluates the weight of the keyword in five levels and inputs the determination result from the input unit 8 (step 97). The determination result is represented by a numerical value of 0 to 4, and the larger the numerical value, the more important the user is.

【0072】次に、ノード情報の対応するノードの「重
み」属性に該判定結果を代入する(ステップ98)。次
に、先にユーザがテキストを評価したテキストの判定結
果を対応するノードの「大きさ」属性に書き込む(ステ
ップ99)。そして、キーワードのインデックスiを次
に進める(ステップ100)。これら一連の処理をキー
ワードリストの全てのキーワードについて行って(ステ
ップ92)、次の図10に示される処理に進む。
Next, the judgment result is substituted into the "weight" attribute of the corresponding node of the node information (step 98). Next, the user writes the judgment result of the text evaluated by the user in the "size" attribute of the corresponding node (step 99). Then, the keyword index i is advanced to the next (step 100). This series of processes is performed for all the keywords in the keyword list (step 92), and the process proceeds to the next process shown in FIG.

【0073】図10に示す処理では、今回新たに抽出し
た全てのキーワード間にリンクを持たせる。すなわち、
キーワードリストのi番目のキーワードを読み込み(ス
テップ102)、読み込まれたキーワードのノード番号
をキーワード記憶部5のノード情報領域から引き出し、
変数aに代入する(ステップ103)。次に、リンクを
張る相手先のキーワードのインデックスをjとし、この
インデックスjがインデックスiの次を指し示すように
して(ステップ104)、キーワードリストにj番目の
キーワードが存在するか確認し、存在する場合はキーワ
ードリストのj番目のキーワードを読み込む(ステップ
105)。読み込まれたキーワードのノード番号をノー
ド情報領域から引き出し、変数bに代入する(ステップ
106)。
In the process shown in FIG. 10, all the keywords newly extracted this time are provided with links. That is,
The i-th keyword in the keyword list is read (step 102), the node number of the read keyword is retrieved from the node information area of the keyword storage unit 5,
The variable a is substituted (step 103). Next, let j be the index of the keyword of the other party to which the link is to be made, this index j points to the next of the index i (step 104), and it is confirmed whether the jth keyword is present in the keyword list, and it is present. In this case, the jth keyword in the keyword list is read (step 105). The node number of the read keyword is extracted from the node information area and assigned to the variable b (step 106).

【0074】次に、キーワード記憶部5のリンク情報領
域において行列で表されるノード間のリンク情報の
(a,b)および(b,a)の要素をそれぞれ1に設定
し(ステップ107)、キーワードリストのインデック
スjを次に進める(ステップ108)。キーワードリス
トの全てのキーワードについてjに関しての処理が終了
すると(ステップ105)、キーワードのインデックス
iを次に進める(ステップ109)。このようにして、
一連の処理をキーワードリストの全てのキーワードにつ
いて行って(ステップ102)、次の図11に示される
処理に進む。
Next, the elements (a, b) and (b, a) of the link information between the nodes represented by the matrix in the link information area of the keyword storage unit 5 are set to 1 (step 107), The index j of the keyword list is advanced (step 108). When the process for j is completed for all the keywords in the keyword list (step 105), the keyword index i is advanced to the next (step 109). In this way
A series of processes is performed for all the keywords in the keyword list (step 102), and the process proceeds to the next process shown in FIG.

【0075】図11に示す処理では、ノード間のリンク
およびノードの大きさの変更に伴い、図5に示したリン
ク間の強さの変更を行う。すなわち、ノード情報を参照
するためのインデックスiをノード情報の先頭である1
に設定する(ステップ111)。次に、ノード情報にi
番目のノードが存在するか確認する(ステップ11
2)。リンクの強さは、その方向によりそれぞれ異なる
ため、ここにいうノードiはリンクの出発地点を表す。
次に、ノード情報を参照するためのインデックスjをノ
ード情報の先頭である1に設定し、ノードの大きさの合
計を求める変数「合計」を初期設定のため0にする(ス
テップ113)。
In the processing shown in FIG. 11, the strength between the links shown in FIG. 5 is changed in accordance with the change in the links between the nodes and the size of the nodes. That is, the index i for referring to the node information is set to 1 at the beginning of the node information.
(Step 111). Next, i
Check if the th node exists (step 11)
2). Since the strength of the link differs depending on its direction, the node i here represents the starting point of the link.
Next, the index j for referring to the node information is set to 1 which is the head of the node information, and the variable "total" for obtaining the total size of the nodes is set to 0 for initialization (step 113).

【0076】次に、ノード情報にj番目のノードが存在
するか確認する(ステップ114)。ここで、ノードj
はリンクの目的地点を表す。キーワード記憶部5のリン
ク情報領域においてリンクの有無を表す行列の各要素を
「リンク[i,j]」で表すものとし、リンク[i,
j]×大きさ[j]を変数「合計」に書き加えることに
より、リンクが存在する場合は接続されているノードの
大きさを書き加えることができる(ステップ115)。
次に、ノード情報に対するインデックスjを次に進める
(ステップ116)。インデックスjに関して全てのノ
ードを処理し終えたら(ステップ114)、インデック
スjを再びノード情報の先頭である1に戻す(ステップ
117)。この時点で、ノードiに接続されている全て
のノードの大きさの合計が求まることになる。
Next, it is confirmed whether or not the jth node exists in the node information (step 114). Where node j
Represents the destination of the link. In the link information area of the keyword storage unit 5, each element of the matrix representing the presence or absence of a link is represented by "link [i, j]", and the link [i,
By adding [j] × size [j] to the variable “total”, the size of the connected node can be added if a link exists (step 115).
Next, the index j for the node information is advanced (step 116). When all the nodes for the index j have been processed (step 114), the index j is returned to 1 which is the head of the node information again (step 117). At this point, the total size of all the nodes connected to the node i is obtained.

【0077】次に、ノード情報にi番目のノードが存在
するか確認し(ステップ118)、ノードが存在する場
合は、図5に示したノード間の強さの行列の要素「強さ
[i,j]」に大きさ[j]の値の合計で割った値を代
入する。ただし、リンク[i,j]を掛けることによ
り、リンクが存在しない場合には強さが0になるように
する(ステップ119)。
Next, it is confirmed whether or not the i-th node exists in the node information (step 118), and if the node exists, the element "strength [i [i , J] ”is substituted with the value obtained by dividing the sum of the values of the size [j]. However, by multiplying the link [i, j], the strength is set to 0 when the link does not exist (step 119).

【0078】次に、ノード情報のインデックスjを次に
進める(ステップ120)。ノード情報の全てのノード
をjに関して処理し終えると(ステップ118)、ノー
ド情報のインデックスiを次に進める(ステップ12
1)。ノード情報の全てのノードをiに関して処理し終
えると(ステップ112)、処理を終了する。
Next, the index j of the node information is advanced (step 120). When all the nodes of the node information have been processed for j (step 118), the index i of the node information is advanced (step 12).
1). When all the nodes in the node information have been processed for i (step 112), the process ends.

【0079】図2に示したキーワード連想ネットワーク
に、図7(a) のキーワード群を生成するテキストの得点
が4で、重みが4の新規キーワード「マン・マシン」を
加えた更新結果を図12に示す。新たに加わったリンク
を実線で示し、既に存在しているリンクを点線で示して
いる。
FIG. 12 shows the update result obtained by adding a new keyword “man-machine” having a score of 4 and a weight of 4 to the keyword associative network shown in FIG. 2 for generating the keyword group of FIG. 7 (a). Shown in. Newly added links are shown by solid lines, and existing links are shown by dotted lines.

【0080】ところで、上記例では活性値計算部4で、
ACT* の方法を使って活性値を伝搬させ、キーワード
連想ネットワーク上の最終的な活性値を求めるようにし
ている。ACT* の方法をそのまま適用すると、キーワ
ード連想ネットワーク上に存在するノードの数と同じ次
元の連立一次方程式を解く必要がある。連立一次方程式
を解くには、その方程式の次元の三乗に比例して計算量
が増加するため、大規模なキーワード連想ネットワーク
に用いるのは困難が伴う。
By the way, in the above example, in the active value calculation unit 4,
The activity value is propagated using the ACT * method, and the final activity value on the keyword association network is obtained. If the method of ACT * is applied as it is, it is necessary to solve simultaneous linear equations of the same dimension as the number of nodes existing on the keyword association network. Solving simultaneous linear equations increases the amount of calculation in proportion to the cube of the dimension of the equations, which makes it difficult to use for a large-scale keyword association network.

【0081】そこで、ここでは大規模なキーワード連想
ネットワークにおいても、計算爆発を起こさずに活性伝
搬の定常状態を求めることができる二通りの活性伝搬手
法を説明する。
Therefore, here, two types of active propagation methods will be described which can obtain a steady state of active propagation without causing a computational explosion even in a large-scale keyword associative network.

【0082】(1) 単純な距離を用いる方法 この方法では、テキストから抽出された各キーワードに
ついて、各キーワードを中心とし、キーワード連想ネッ
トワークのリンクをたどって、決められたステップ数以
内で到達可能なノードとリンクのみを取り出した、部分
ネットワークとACT* の式とを用いて活性値を求め
る。そして、求まった部分ネットワークの各ノードの活
性値をキーワード連想ネットワークの対応するノードに
加え、これを全てのキーワードに関して行なうことによ
り、キーワード連想ネットワークの全ノードの活性値を
求める。
(1) Method Using Simple Distance In this method, each keyword extracted from the text can be reached within a predetermined number of steps by following the link of the keyword association network centering on each keyword. The activity value is calculated using the partial network and the ACT * formula, which is obtained by extracting only the node and the link. Then, the activation value of each node of the obtained partial network is added to the corresponding node of the keyword associative network, and this is performed for all the keywords to obtain the activation values of all the nodes of the keyword associative network.

【0083】以下、図13に示す処理の流れを参照しな
がら説明する。まず、図1のキーワード記憶装置3に記
憶されている図7に示すようなキーワードリストを参照
するためのインデックスiをキーワードリストの先頭で
ある1に設定する(ステップ131)。次にキーワード
リストにi番目のキーワードが存在するか確認し(ステ
ップ132)、存在する場合にはキーワードリストのi
番目のキーワードを読み込む(ステップ133)。読み
込まれたキーワードが、図3のようなキーワード連想ネ
ットワークに記憶されている場合(ステップ134)、
変数“起点”を読み込まれたキーワードに設定し、変数
“距離”を予め定められた部分ネットワークの大きさ
(この例では5)に設定する(ステップ135)。
Hereinafter, description will be made with reference to the flow of processing shown in FIG. First, the index i for referring to the keyword list as shown in FIG. 7 stored in the keyword storage device 3 of FIG. 1 is set to 1 which is the head of the keyword list (step 131). Next, it is confirmed whether or not the i-th keyword is present in the keyword list (step 132).
The th keyword is read (step 133). If the read keyword is stored in the keyword association network as shown in FIG. 3 (step 134),
The variable "starting point" is set to the read keyword, and the variable "distance" is set to the predetermined size of the partial network (5 in this example) (step 135).

【0084】図17のような部分ネットワークの初期化
を行なう(ステップ136)。ただし、初期化された段
階では部分ネットワークには、どのノードも登録されて
いない。部分ネットワーク生成部に引数(起点,距離)
を渡し、起点を中心としてリンクを辿って、5つ隣のノ
ードまでも含む部分ネットワークを作成する(ステップ
137)。
The partial network shown in FIG. 17 is initialized (step 136). However, no node is registered in the partial network at the initialization stage. Arguments to the partial network generator (starting point, distance)
Is passed, the link is traced around the starting point, and a partial network including up to five adjacent nodes is created (step 137).

【0085】得られた部分ネットワーク内の起点の活性
値をキーワード連想ネットワーク(全体ネットワーク)
での起点のノードの大きさに設定する(ステップ13
8)。部分ネットワークに含まれるノード間のリンクの
強さ情報を図5のようなリンク情報から取り出し(ステ
ップ139)、活性の伝搬を求める(ステップ14
0)。部分ネットワークの各ノードの活性値を対応する
全体ネットワークの各ノードの活性値に加える(ステッ
プ141)。インデックスiを1つ進め(ステップ14
2)、次のキーワードの処理へ進む。全てのキーワード
の処理が終了したら(ステップ132)、処理を終了す
る。
The active value of the starting point in the obtained partial network is used as the keyword association network (entire network).
Set to the size of the node at the starting point in (Step 13
8). Link strength information between nodes included in the partial network is extracted from the link information as shown in FIG. 5 (step 139), and propagation of the activity is obtained (step 14).
0). The liveness value of each node of the partial network is added to the liveness value of each node of the corresponding whole network (step 141). Advance index i by 1 (step 14
2) The process proceeds to the next keyword. When the processing of all the keywords is completed (step 132), the processing is completed.

【0086】次に、図14を用いて部分ネットワーク生
成部の働きを説明する。部分ネットワーク生成部は引数
(距離)が正である間、再帰的に部分ネットワークを拡
張して行く。まず、引数として受け取った起点の全体ネ
ットワークでの番号を部分ネットワークに登録し、その
活性値を0に設定する(ステップ141)。次に、引数
として受け取った距離を1減じ、その値を変数“次の距
離”に格納する(ステップ142)。次の距離が0であ
った場合にはシステムは終了し、呼び出し元に戻る(ス
テップ143)。次の距離が0でなかった場合にはイン
デックスとなる変数iを0に初期化する(ステップ14
4)。図4のようなリンク情報を参照し、起点ノードに
隣接しているノード、隣接ノード[i]を探し、隣接ノ
ードを全て探し終えたら終了する(ステップ145)。
Next, the operation of the partial network generator will be described with reference to FIG. The partial network generation unit recursively expands the partial network while the argument (distance) is positive. First, the number in the whole network of the starting point received as an argument is registered in the partial network, and its active value is set to 0 (step 141). Next, the distance received as an argument is decremented by 1, and the value is stored in the variable "next distance" (step 142). If the next distance is 0, the system terminates and returns to the caller (step 143). If the next distance is not 0, the variable i serving as an index is initialized to 0 (step 14).
4). By referring to the link information as shown in FIG. 4, the node adjacent to the origin node and the adjacent node [i] are searched, and when all the adjacent nodes have been searched, the process ends (step 145).

【0087】隣接ノード[i]が部分ネットワークに登
録されていなければ(ステップ146)、隣接ノード
[i]とを引数として、再帰的に部分ネットワーク生成
部を呼ぶ(ステップ48)。隣接ノード[i]が部分ネ
ットワークに登録されていれば(ステップ146)、隣
接ノード[i]の距離と次の距離とを比較し、次の距離
の方が大きければ(ステップ147)、隣接ノード
[i]と次の距離を引数として、再帰的に部分ネットワ
ーク生成部を呼ぶ(ステップ148)。隣接ノードを探
すインデックスを一つ進め、次の隣接ノードを探す(ス
テップ149)、隣接ノード[i]の距離が次の距離以
上の場合には、隣接ノードを探すインデックスを一つ進
め、次の隣接ノードを探す(ステップ149)。
If the adjacent node [i] is not registered in the partial network (step 146), the partial network generator is recursively called with the adjacent node [i] as an argument (step 48). If the adjacent node [i] is registered in the partial network (step 146), the distance between the adjacent node [i] and the next distance are compared. If the next distance is larger (step 147), the adjacent node The partial network generation unit is recursively called with [i] and the next distance as arguments (step 148). The index for searching for the adjacent node is advanced by one, and the next adjacent node is searched for (step 149). If the distance of the adjacent node [i] is equal to or greater than the next distance, the index for searching for the adjacent node is increased by one, and the next index is searched for. Search for an adjacent node (step 149).

【0088】このようにして、リンクをたどって、始め
の距離で定められた回数で到達可能な範囲に存在するノ
ードを全て取り出した、部分ネットワークを生成する。
次に、図15を用いて部分ネットワークに対応したノー
ド間のリンクの強さの情報を作成する方法について説明
する。
In this way, a partial network is created by tracing all the links and extracting all the nodes existing in the reachable range by the number of times defined by the initial distance.
Next, a method of creating information on the strength of links between nodes corresponding to a partial network will be described with reference to FIG.

【0089】まず、インデックスiを1に初期化する
(ステップ151)。インデックスi(部分ネットワー
クに含まれるノードの数)がN以下の場合はノード
[i]に関して処理を行ない、Nに到達した、すなわち
部分ネットワークに含まれる全てのノードに関して処理
を終えた場合には終了する(ステップ152)。
First, the index i is initialized to 1 (step 151). When the index i (the number of nodes included in the partial network) is N or less, the process is performed on the node [i], and when the process reaches N, that is, when the process is completed for all the nodes included in the partial network, the process ends. (Step 152).

【0090】インデックスjを1に初期化する(ステッ
プ153)。インデックスj(部分ネットワークに含ま
れるノードの数)がN以下の場合はノード[j]に関し
て処理を行ない(ステップ154)、Nに到達した、す
なわち部分ネットワークに含まれる全てのノードに関し
て処理を終えた場合にはインデックスiを1つ進め、再
び全てのjに関して処理を行なう(ステップ155)。
The index j is initialized to 1 (step 153). When the index j (the number of nodes included in the partial network) is N or less, the process is performed on the node [j] (step 154), and N is reached, that is, the process is completed for all the nodes included in the partial network. In this case, the index i is incremented by 1, and the process is performed again for all j (step 155).

【0091】変数aにノード[i]の全体のネットワー
クでの番号を格納し、変数bにノード[i]の全体のネ
ットワークでの番号を格納する(ステップ156)。ノ
ード[i]からノード[j]への強さ:部分ネットワー
クの強さ[i,j]は強さ[a,b]であるため、この
値を格納する(ステップ157)。インデックスjを1
つ進め(ステップ158)、次のノードに関して処理を
続ける。
The variable a stores the number of the entire network of node [i], and the variable b stores the number of the entire network of node [i] (step 156). Strength from node [i] to node [j]: Since the strength [i, j] of the sub-network is the strength [a, b], this value is stored (step 157). Index 1
Next (step 158), the process continues for the next node.

【0092】このようにして全てのノードに関して処理
を行なうと、必要なリンク情報の取り出しが完了する。 (2) リンクの強さを考慮した距離を用いる方法 この方法では、テキストから抽出された各キーワードに
ついて、各キーワードを中心とし、キーワード連想ネッ
トワークのリンクをマーカパッシング手法を用いて、リ
ンクの強さに応じてマーカのzorchの値を減少さ
せ、最終的にzorchが到達した範囲までのノードと
リンクのみを取り出した、部分ネットワークとACT*
の式とを用いて活性値を求める。求まった部分ネットワ
ークの各ノードの活性値をキーワード連想ネットワーク
の対応するノードに加える。これを、全てのキーワード
に関して行なうことにより、キーワード連想ネットワー
クの全ノードの活性値を求める。
When the processing is performed for all the nodes in this way, the extraction of the necessary link information is completed. (2) Method that uses distance considering link strength With this method, for each keyword extracted from text, centering on each keyword, the link of the keyword association network is used by the marker passing method, and the link strength is determined. The value of the marker zorch is decreased according to, and only the nodes and links up to the range reached by the zorch are finally extracted, the partial network and ACT *
The activity value is calculated using the equation and. The obtained activation value of each node of the partial network is added to the corresponding node of the keyword association network. By performing this for all the keywords, the active values of all the nodes in the keyword associative network are obtained.

【0093】すなわち、先の(1) の例では隣接するノー
ドを一つ進む毎に距離を一つ減らしたが、活性の伝搬は
リンクの強さに依存するため、この方法ではリンクの強
さを考慮した関数を用いて距離を算出する。これは先に
説明した(1) の例の部分ネットワーク作成部を置き換え
ることにより実現可能である。
That is, in the above example (1), the distance is reduced by one each time the adjacent node advances, but since the propagation of the activity depends on the strength of the link, in this method the strength of the link is The distance is calculated using a function that takes into consideration. This can be realized by replacing the partial network creation unit in the example (1) described above.

【0094】部分ネットワークの作成部の一例を図16
を用いて説明する。先の(1) の例での部分ネットワーク
作成部と同様に再帰的に処理を行なう。引数として与え
られた起点を図17のような部分ネットワークに登録す
る(ステップ161)。インデックスiを0に初期化す
る(ステップ162)。処理していない起点に隣接する
ノードがまだ存在する場合には処理を行なう(ステップ
163)。
FIG. 16 shows an example of the creating unit of the partial network.
Will be explained. The process is performed recursively as in the partial network creation unit in the above example (1). The starting point given as an argument is registered in the partial network as shown in FIG. 17 (step 161). The index i is initialized to 0 (step 162). If there is a node adjacent to the unprocessed starting point, the process is performed (step 163).

【0095】隣接するノードと起点の距離を距離関数を
用いて求める。この例では一例として、起点ノードから
隣接ノードへのリンクの強さの逆数を距離として用い
る。すなわち、1/強さ[起点,隣接ノード]を起点か
ら隣接ノードへの距離とする。起点から隣接ノードへの
距離の値を変数「距離」から引いた値を変数として次の
距離に格納し(ステップ164)、次の距離が負でない
ならば、処理を行なう(ステップ165)。隣接ノード
が既に部分ネットワークとして登録されている場合には
(ステップ166)、次の距離が登録されたときの距離
よりも大きい場合にのみ(ステップ167)、部分ネッ
トワーク作成部を再帰的に呼び出すことにより更新を行
なう(ステップ168)。隣接ノードが登録されていな
い場合には(ステップ166)、部分ネットワーク作成
部を再帰的に呼び出すことにより登録を行なう(ステッ
プ168)。インデックスiを1つ進めて(ステップ1
69)、次の隣接ノードの処理を行なう。
The distance between the adjacent node and the starting point is obtained using the distance function. In this example, as an example, the reciprocal of the strength of the link from the origin node to the adjacent node is used as the distance. That is, 1 / strength [starting point, adjacent node] is the distance from the starting point to the adjacent node. The value obtained by subtracting the value of the distance from the starting point to the adjacent node from the variable "distance" is stored as the variable in the next distance (step 164). If the next distance is not negative, the process is performed (step 165). If the adjacent node is already registered as a partial network (step 166), the partial network creating unit is recursively called only when the next distance is larger than the distance when it was registered (step 167). Is updated (step 168). If the adjacent node is not registered (step 166), the partial network creation unit is recursively called to perform registration (step 168). Advance index i by 1 (step 1
69), and process the next adjacent node.

【0096】なお、上記手法に加え、さらに活性値情報
を全体ネットワークの一部として持たせるのではなく、
図18のような活性値情報テーブルを独立に持たせ、活
性値に変化のあったノードの活性値だけを記憶させるこ
とにより、文書の得点を計算する際に活性が初期状態
(0)のままのノードは考慮する必要がなくなり、文書
の得点計算を高速化することが可能となる。
In addition to the above method, rather than having the active value information as a part of the entire network,
The activity value information table as shown in FIG. 18 is independently provided, and only the activity values of the nodes whose activity values have changed are stored, so that the activity remains in the initial state (0) when the score of the document is calculated. It is not necessary to consider the node of, and it becomes possible to speed up the score calculation of the document.

【0097】すなわち、部分ネットワークで求めた各ノ
ードの活性値情報を図18のような活性ノードテーブル
に登録することにより、活性値が正であるノードのみの
一覧を作成することができる。
That is, by registering the active value information of each node obtained in the partial network in the active node table as shown in FIG. 18, it is possible to create a list of only nodes having a positive active value.

【0098】すなわち、図13のステップ140におい
て、部分ネットワークを全体ネットワークに加える際
に、ノード番号と活性値を図18のような活性ノードテ
ーブルに登録する。既にノードが登録されている場合に
は、部分ネットワークで新たに求まった活性値を足す。
文書の得点を求める際には活性ノードテーブルを参照
し、先頭ノードから順に、ノード番号を求め、ノード番
号を用いて対応するノードの重みを全体ネットワークか
ら得る。次に、活性値を得て、この2つの値から、ノー
ドの得点を得る。上記の処理を活性ノードテーブルに登
録されている全てのノードに関して行なうことにより、
文書の得点を得ることができる。
That is, in step 140 of FIG. 13, when the partial network is added to the entire network, the node number and the active value are registered in the active node table as shown in FIG. When the node is already registered, the activation value newly obtained in the partial network is added.
When obtaining the score of the document, the active node table is referred to, the node numbers are obtained in order from the head node, and the weights of the corresponding nodes are obtained from the entire network using the node numbers. Next, the activation value is obtained, and the score of the node is obtained from these two values. By performing the above process for all nodes registered in the active node table,
You can get the score of the document.

【0099】また、図1に示した実施例では、表示部7
に表示されたテキストをユーザが読みながら選定された
結果をユーザ自身が5段階で評価し、この評価値をユー
ザが直接入力部8を介して入力する方法を採用してい
る。しかし、このような評価入力手法では、迅速性およ
び的確性を満たすことが困難となる。したがって、選定
結果を簡単かつ的確に評価する手法の出現が望まれる。
In the embodiment shown in FIG. 1, the display unit 7
A method is adopted in which the user himself / herself evaluates the selected result while reading the text displayed on the screen in five levels, and the user directly inputs the evaluation value via the input unit 8. However, with such an evaluation input method, it is difficult to satisfy promptness and accuracy. Therefore, the emergence of a method for easily and accurately evaluating the selection result is desired.

【0100】提示されたテキストを評価する手法には、
特開平4−192751号公報に示されている個人向け
電子新聞システムに見られるような、探索や操作の履歴
を用いて検索などの操作が行われた情報に興味があると
判定する方法や、特開平4−77866号公報に示され
ている情報提供システムの情報提供方法に見られるよう
な、情報の提示量と提示時間を元に情報単位あたりの提
示時間から利用者の興味を算出する方法などが知られて
いる。
The method for evaluating the presented text is as follows:
A method of determining that the user is interested in information on which an operation such as a search is performed using a history of search and operation, as seen in the personal electronic newspaper system disclosed in JP-A-4-192775, A method of calculating the interest of the user from the presentation time per information unit based on the presentation amount and presentation time of information, as seen in the information providing method of the information providing system disclosed in Japanese Patent Laid-Open No. 4-77866. Are known.

【0101】しかし、検索や操作の履歴を用いる方法で
は間接的にしかユーザの興味の度合が求められず、また
情報に対して興味はあったが、それ以上の検索や操作を
せずに満足してしまったような情報については興味がな
かった情報と区別することが不可能である。また、情報
の提示量と提示時間を元に、情報単位あたりの提示時間
からユーザの興味を算出する方法では、情報が提示され
た状態で放置されてしまった場合や、考え事をしてしま
ったような場合には、たとえ興味がなくとも重大な興味
があったと判定されてしまう虞がある。
However, in the method using the history of search and operation, the degree of interest of the user can be obtained only indirectly, and although he is interested in information, he is satisfied without performing further search or operation. It is impossible to distinguish information that has been lost from information that was not of interest. In addition, in the method of calculating the user's interest from the presentation time per information unit based on the presentation amount and presentation time of information, if the information is left in the presented state, it is thoughtful. In such a case, it may be determined that there was a serious interest even if the interest was not.

【0102】そこで、ここでは、図1に示すテキスト選
定装置によって選定され、表示されているテキストを見
るユーザ、つまり利用者の視点を追跡し、その移動特性
を解析することにより、提示されているテキストに対し
て利用者が持っている興味の度合を利用者が明示的に入
力することなく、迅速かつ的確に評価する評価装置につ
いて説明する。
Therefore, here, it is presented by tracking the viewpoint of the user who sees the text selected and displayed by the text selection device shown in FIG. 1, that is, the user, and analyzing the movement characteristics thereof. An evaluation device for quickly and accurately evaluating a text without the user explicitly inputting the degree of interest the user has will be described.

【0103】すなわち、この評価装置は、図1に示され
ているテキスト選定装置により重要と判定され、表示さ
れているテキストを利用者が読む際の視線の動きを追跡
する視線追跡装置と、この視線追跡装置により得られた
座標情報をテキストにおける位置情報に変換する座標変
換装置と、変換された位置情報を用いて利用者の興味の
度合を評価する評価値算出装置と、評価の際に用いる係
数と過去の予測値と評価値とを記憶する評価値記憶装置
と、記憶された予測値と評価値とを用いて係数の学習を
行なう学習装置とを備えている。
That is, this evaluation device is a line-of-sight tracking device which is determined to be important by the text selection device shown in FIG. 1 and tracks the movement of the line of sight when the user reads the displayed text. A coordinate conversion device that converts the coordinate information obtained by the eye gaze tracking device into position information in the text, an evaluation value calculation device that evaluates the degree of interest of the user using the converted position information, and is used at the time of evaluation An evaluation value storage device that stores a coefficient, a past prediction value, and an evaluation value, and a learning device that learns the coefficient by using the stored prediction value and the evaluation value are provided.

【0104】この評価装置では、表示されたテキストを
利用者が見る際に、Applied Science LaboratoriesのMo
del 3250Rのような視線(視点)追跡装置を用いて表示
装置上の視点の位置を常に記録する。人間は興味によっ
て表示装置上の視点の運び方が異なる。すなわち、テキ
スト情報を表示している場合、興味のある情報ならば、
視点の動きに乱れが少なく、文字を先頭から順次追う。
逆に興味のない情報であれば、飛ばしながら読んだり、
途中で止めたり、視点が表示装置外に移動する等の乱れ
が発生する。この評価装置では、これらの乱れを検出
し、乱れの度合により提示テキストに対する興味の度合
を評価する。
In this evaluation device, when the user views the displayed text, the Mo of Applied Science Laboratories is used.
A line-of-sight (viewpoint) tracking device such as del 3250R is used to constantly record the position of the viewpoint on the display device. Human beings have different ways of carrying the viewpoint on the display device depending on their interests. That is, when displaying text information, if the information you are interested in,
There is little disturbance in the movement of the viewpoint, and the characters are followed sequentially from the beginning.
On the other hand, if the information is not of interest, skip it while reading,
Disturbances such as stopping on the way or moving the viewpoint outside the display device occur. This evaluation device detects these disturbances and evaluates the degree of interest in the presented text based on the degree of the disturbances.

【0105】測定された興味の度合は、図1に示したテ
キスト選定装置の入力部8に渡され、ユーザ情報として
管理、利用される。なお、この評価装置で測定された興
味の度合は、図1に示したテキスト選定装置に限らず、
他のタイプのテキスト選定装置、たとえば特開平2−1
25363号公報の文書検索装置に見られるようなキー
ワードコネクションによるものにも利用できる。この文
書検索装置では、キーワード間のつながりの強さをネッ
トワークで表現し、検索条件からのつながりの強さを基
に文書検索を行ない、検索結果を利用者が判定/入力
し、判定結果を用いてキーワード間のつながりを学習さ
せ、次回の検索からより利用者の意図に近い挙動を取る
ように変化する。
The measured degree of interest is passed to the input unit 8 of the text selection device shown in FIG. 1 and managed and used as user information. The degree of interest measured by this evaluation device is not limited to the text selection device shown in FIG.
Another type of text selection device, for example, Japanese Patent Laid-Open No. 2-1
It can also be used for the keyword connection as seen in the document search device of Japanese Patent No. 25363. In this document search device, the strength of connection between keywords is expressed by a network, a document search is performed based on the strength of connection from the search condition, the user judges / inputs the search result, and the judgment result is used. Then, the connection between keywords is learned, and the behavior is changed to be closer to the user's intention from the next search.

【0106】肉体的衰えや学習、訓練により視点の運び
は徐々に変化する。したがって、視点の動きに対応する
評価値を徐々に変化、学習させる仕組みが必要である。
図1に示されるテキスト選定装置は、情報を提示する以
外にもファイリング、情報検索、仮名漢字変換の辞書な
どにも利用され、異なるフィードバック情報により学習
することも可能であるため、このような装置に評価予測
機能を持たせた場合、予測と実際の評価値が連続して大
きく異なる場合には、評価装置が現実とずれてしまった
と判定し、評価装置の評価に用いる係数を現実に合わせ
るために学習させる必要がある。
The carrying of viewpoints gradually changes due to physical deterioration, learning, and training. Therefore, a mechanism for gradually changing and learning the evaluation value corresponding to the movement of the viewpoint is required.
The text selection device shown in FIG. 1 is used not only for presenting information but also for filing, information retrieval, kana-kanji conversion dictionary, etc., and it is also possible to learn with different feedback information. If the prediction prediction function and the actual evaluation value are continuously different from each other, it is determined that the evaluation device has deviated from reality and the coefficient used for evaluation of the evaluation device is adjusted to the reality. Need to learn.

【0107】図19には評価装置の一例が示されてい
る。ここで、評価装置より得られた評価値は図1の入力
部8を介してテキスト選定装置に渡される。そして、こ
の図19では図1に示されるテキスト選定装置を番号3
2で示してある。
FIG. 19 shows an example of the evaluation device. Here, the evaluation value obtained from the evaluation device is passed to the text selection device via the input unit 8 of FIG. Then, in FIG. 19, the text selection device shown in FIG.
It is indicated by 2.

【0108】文書記憶部31から入力されたテキスト情
報は、テキスト選定装置32により利用者にとってどの
程度重要であるか判定され、重要であると判定されたも
のに関してのみ点数付けされ、点数と共に情報記憶装置
33に記憶される。
The text information input from the document storage section 31 is judged by the text selection device 32 to what degree the text information is important to the user, and only those which are judged to be important are scored. It is stored in the device 33.

【0109】制御装置34はテキスト選定装置32によ
り付加された点数を基に、情報記録装置33より利用者
にとって有用と思われるテキスト情報を取り出し、入力
装置35からの要求に合わせて表示装置36にテキスト
情報を表示する。
Based on the score added by the text selection device 32, the control device 34 takes out text information that is considered useful to the user from the information recording device 33, and displays it on the display device 36 in response to a request from the input device 35. Display textual information.

【0110】視線追跡装置37は表示装置36に表示さ
れているテキスト情報を読む利用者の視線の動きを追跡
し、表示装置36上の利用者の視点の位置を座標情報と
して座標変換装置38に渡す。
The line-of-sight tracking device 37 tracks the movement of the line of sight of the user who reads the text information displayed on the display device 36, and uses the position of the user's viewpoint on the display device 36 as coordinate information in the coordinate conversion device 38. hand over.

【0111】座標変換装置38は、情報記憶装置33と
制御装置34より表示装置36に表示されているテキス
ト情報を獲得し、視線追跡装置37より得た表示装置3
6上の利用者の視点の位置をテキスト情報の座標に変換
する。
The coordinate conversion device 38 acquires the text information displayed on the display device 36 from the information storage device 33 and the control device 34, and obtains it from the eye gaze tracking device 37.
The position of the user's viewpoint on 6 is converted into the coordinates of the text information.

【0112】入力装置35より次文書表示命令もしくは
終了命令が入力されると、変換された座標情報はテキス
ト情報と共に評価値算出装置39に渡される。評価値算
出装置39は、評価値記憶装置40から評価に用いる係
数を読み込み、該情報から利用者の興味の度合を判定
し、算出された評価値をテキスト選定装置32にフィー
ドバック情報として渡す。テキスト選定装置32は、こ
のフィードバック情報を基に学習を行なう。
When the next document display command or the end command is input from the input device 35, the converted coordinate information is passed to the evaluation value calculation device 39 together with the text information. The evaluation value calculation device 39 reads the coefficient used for evaluation from the evaluation value storage device 40, determines the degree of interest of the user from the information, and passes the calculated evaluation value to the text selection device 32 as feedback information. The text selection device 32 performs learning based on this feedback information.

【0113】学習装置41は、情報記憶装置33からテ
キスト選定装置32が付加した点数と評価値算出装置3
9が行なった評価の結果とを受け取り、評価値記憶装置
40に保存し、両者が大きく異なる場合には評価値算出
装置39の学習を行ない、評価値記憶装置40に学習後
の係数を保存する。
The learning device 41 uses the score added by the text selection device 32 from the information storage device 33 and the evaluation value calculation device 3
The result of the evaluation performed by 9 is received and stored in the evaluation value storage device 40. If the values are significantly different, the evaluation value calculation device 39 is learned, and the coefficient after learning is stored in the evaluation value storage device 40. .

【0114】次に、図20を参照しながら制御装置34
の働きを説明する。情報記憶装置33より文書情報とテ
キスト選定装置32が付加した得点とを読み込み、座標
変換装置38に読み込んだ文書の番号を通知する。(ス
テップ211)。変数である表示開始行を1に初期化す
る(ステップ212)。表示開始行からN行分の文書情
報を表示装置36に表示する(ステップ213)。ただ
し、Nとは表示装置36に一度に表示することが可能な
行数であるとする。
Next, referring to FIG. 20, the control device 34
Explain the function of. The document information and the score added by the text selection device 32 are read from the information storage device 33, and the number of the read document is notified to the coordinate conversion device 38. (Step 211). A display start line which is a variable is initialized to 1 (step 212). Document information for N lines from the display start line is displayed on the display device 36 (step 213). However, it is assumed that N is the number of lines that can be displayed on the display device 36 at one time.

【0115】表示開始行を座標変換装置38に通知し
(ステップ214)、入力装置35からの命令の入力を
待つ(ステップ215)。入力があった場合、入力が次
ページ表示命令ならば(ステップ216)、表示開始行
をNだけ進めてステップ213に戻る(ステップ21
7)。入力が次文書表示命令ならば(ステップ21
8)、評価開始を座標変換装置38に通知し(ステップ
219)、ステップ211に戻る。入力が終了命令なら
ば(ステップ220)、評価開始を座標変換38に通知
し(ステップ221)、終了する。
The display start line is notified to the coordinate conversion device 38 (step 214) and the input of an instruction from the input device 35 is waited for (step 215). If there is an input, if the input is a next page display command (step 216), the display start line is advanced by N and the process returns to step 213 (step 21).
7). If the input is a next document display command (step 21)
8) The evaluation start is notified to the coordinate conversion device 38 (step 219), and the process returns to step 211. If the input is an end command (step 220), the start of evaluation is notified to the coordinate conversion 38 (step 221), and the process ends.

【0116】次に、図21を参照しながら座標変換装置
38の働きを説明する。制御装置34より現在表示して
いる文書の文書番号を受け取る(ステップ231)。受
け取った文書番号を基に情報記憶装置33より該当文書
を読み込む(ステップ232)。制御装置34より表示
開始行を受け取る(ステップ233)。
Next, the operation of the coordinate conversion device 38 will be described with reference to FIG. The document number of the currently displayed document is received from the control device 34 (step 231). Based on the received document number, the relevant document is read from the information storage device 33 (step 232). A display start line is received from the control device 34 (step 233).

【0117】制御装置34から命令がない場合には(ス
テップ234)、視線追跡装置37から表示装置36上
の利用者の視点の座標情報を受け取り(ステップ23
5)、表示開始行情報を基に文書のどの位置を読んでい
るかを判定し、図24のような形式の文書上の座標に変
換し(ステップ236)、ステップ234に戻る。
When there is no command from the control device 34 (step 234), the coordinate information of the viewpoint of the user on the display device 36 is received from the eye gaze tracking device 37 (step 23).
5) Based on the display start line information, it is determined which position in the document is being read, the coordinates are converted into coordinates on the document in the format shown in FIG. 24 (step 236), and the process returns to step 234.

【0118】制御装置34から命令がある場合(ステッ
プ234)、その命令が表示開始行の変更命令である場
合には(ステップ237)、表示開始行を変更し(ステ
ップ238)、ステップ234に戻る。その命令が表示
開始行の変更命令でない場合で(ステップ237)、そ
の命令が評価開始命令でない場合には(ステップ23
9)、ステップ234に戻る。その命令が評価開始命令
である場合には(ステップ239)、評価値算出装置3
8を起動し(ステップ240)終了する。
If there is a command from the control unit 34 (step 234), and if the command is a command to change the display start line (step 237), the display start line is changed (step 238) and the process returns to step 234. . If the command is not a display start line change command (step 237), and if the command is not an evaluation start command (step 23).
9) and returns to step 234. If the command is an evaluation start command (step 239), the evaluation value calculation device 3
8 is started (step 240) and the process ends.

【0119】次に、実例を用いて座標変換例を説明す
る。表示装置36に図22に示すような文書の一部が表
示されているとする。ここでは6行目から表示されてい
るので表示開始行は6である。また、表示可能な行数
(N)は12である。視線追跡装置37から表示装置3
6の左上を(0,0)とした座標が入力として一定間隔
で座標変換装置38に渡される。ここでは表示装置36
の左上を(0,0)、右下を(100,100)とする
座標が渡されるものとし、利用者が表示装置36以外の
場所を見た場合は無視する。
Next, an example of coordinate conversion will be described using an actual example. It is assumed that a part of the document as shown in FIG. 22 is displayed on the display device 36. Here, since the display is started from the 6th line, the display start line is 6. The number of rows (N) that can be displayed is 12. From the line-of-sight tracking device 37 to the display device 3
The coordinates with the upper left of (6, 0) as (0, 0) are input to the coordinate conversion device 38 at regular intervals. Here, the display device 36
The coordinates with the upper left corner of (0,0) and the lower right corner of (100,100) are passed, and are ignored when the user looks at a place other than the display device 36.

【0120】今、視線追跡装置37から図23に示すよ
うな入力があったとする。この場合、表示装置36上の
視点の位置は図25中に「×」で示す位置であり、視点
は図26に実線で示すように移動したと考えられる。
Now, it is assumed that there is an input from the line-of-sight tracking device 37 as shown in FIG. In this case, the position of the viewpoint on the display device 36 is the position indicated by "x" in FIG. 25, and it is considered that the viewpoint has moved as shown by the solid line in FIG.

【0121】座標変換装置38では、このような座標情
報を文書の位置情報に変換する。上の例では座標(4,
2)は[6,1]に変換する。ただし[行、文字数]で
[6,1]は6行目の1文字目を意味する。同様にし
て、図24のように全ての座標を変換して評価値算出装
置39に渡す。
The coordinate conversion device 38 converts such coordinate information into document position information. In the above example, the coordinates (4,
2) is converted into [6,1]. However, in [line, number of characters], [6, 1] means the first character in the sixth line. Similarly, all the coordinates are converted and passed to the evaluation value calculation device 39 as shown in FIG.

【0122】評価値算出装置39では変換後の座標情報
を用いて利用者がどの程度表示文書に対して興味を持っ
たかを評価する。この評価の方法には様々な方法が考え
られる。たとえば、利用者が余りにも早く目を通すと、
それは内容を理解していないと判定し、文字を処理する
速度が一定速度以内である確率を算出し、これを評価値
とする方法や、文書の領域をどれだけくまなく見たかを
基にその割合いを評価値とする方法、文書を読んでいる
間に表示装置36の領域外に視点が移動した回数を用い
て、回数が多くなれば興味が薄いと評価する方法、視点
の動きが文字の並びと逆行する回数を用いて、回数が多
くなれば興味が薄いと評価する方法や、さらにこれらの
組合せにより数多くの方法が考えられる。また、これら
の評価にニューラルネットワークを用いることも可能で
ある。
The evaluation value calculation device 39 uses the coordinate information after conversion to evaluate how much the user is interested in the display document. There are various possible methods for this evaluation. For example, if the user scans too quickly,
It judges that it does not understand the content, calculates the probability that the speed of processing characters is within a certain speed, and uses this as the evaluation value, and based on how thoroughly the area of the document is seen Using a ratio as an evaluation value, a number of times the viewpoint moves outside the area of the display device 36 while reading the document, a method of evaluating that the interest is less when the number of times is larger, and a movement of the viewpoint is a character. There are many methods that can be considered by using the number of times that goes backwards and evaluating that it is less interesting if the number of times increases, and by combining these. It is also possible to use a neural network for these evaluations.

【0123】ここでは、一例として、文書の領域をどれ
だけくまなく見たかを基に、その割合いを評価値として
いる。図27には上記観点で評価値を算出する処理の流
れが示されている。
Here, as an example, the ratio is used as the evaluation value based on how much the document area is thoroughly viewed. FIG. 27 shows the flow of processing for calculating the evaluation value from the above viewpoint.

【0124】まず、現在対象としている文書を情報記憶
装置33より読み込み(ステップ331)、全文字数を
数える(ステップ332)。利用者が目を通した文字を
カウントするための変数である処理済み文字数を0に初
期化する(ステップ333)し、一つ前の座標を記憶し
ておくための変数である前の座標を[0,0]に初期化
する(ステップ334)。
First, the current document is read from the information storage device 33 (step 331) and the total number of characters is counted (step 332). The number of processed characters, which is a variable for the user to count the number of characters read by the user, is initialized to 0 (step 333), and the previous coordinate, which is a variable for storing the previous coordinate, is set. It is initialized to [0,0] (step 334).

【0125】入力座標がまだある場合には(ステップ3
35)、次の座標を一つ読み込む(ステップ336)。
読み込んだ座標が前の座標と同じ行にある場合には(ス
テップ337)、この二つの座標間の文字を読んだとみ
なし、この間にある文字数を処理済み文字数に加える
(ステップ338)。
If there are still input coordinates (step 3
35), one next coordinate is read (step 336).
If the read coordinates are on the same line as the previous coordinates (step 337), it is considered that the characters between these two coordinates have been read, and the number of characters between them is added to the number of processed characters (step 338).

【0126】読み込んだ座標を変数である前の座標に代
入し(ステップ339)、ステップ335に戻る。ステ
ップ335で次の座標が存在しない場合には、評価値記
憶装置37より係数を読み込み(ステップ340)、評
価値を求める(ステップ341)。求まった評価値を学
習装置38とテキスト選定装置32に出力して(ステッ
プ342)、終了する。
The read coordinates are substituted for the previous coordinates which are variables (step 339) and the process returns to step 335. If the next coordinate does not exist in step 335, the coefficient is read from the evaluation value storage device 37 (step 340) and the evaluation value is obtained (step 341). The obtained evaluation value is output to the learning device 38 and the text selection device 32 (step 342), and the process ends.

【0127】たとえば全文字数が100の文書で、図2
8中に実線で示すように視線が動いた場合には、処理済
みの文字数は90となり、評価値は(90/100)×
係数となる。たとえば係数が5だとすると、評価値は
4.5となる。一方、同じ文書を図29中に実線で示す
ように視線が動いた場合には、処理済みの文字数は50
となり、評価値は(50/100)×係数となる。係数
が5であれば、評価値は2.5となり、利用者は図28
の場合に比べて興味が無かったと評価される。
For example, in a document in which the total number of characters is 100,
When the line of sight moves as shown by the solid line in 8, the number of processed characters is 90, and the evaluation value is (90/100) ×
It becomes a coefficient. For example, if the coefficient is 5, the evaluation value is 4.5. On the other hand, when the line of sight moves in the same document as shown by the solid line in FIG. 29, the number of processed characters is 50.
And the evaluation value is (50/100) × coefficient. If the coefficient is 5, the evaluation value will be 2.5 and the user will be shown in FIG.
It is evaluated that he was not interested in the case.

【0128】学習装置41は利用者モデル32からの予
測値と評価値算出装置39からの評価値を決められた回
数分(H回)保持し、これらの値の差が連続して一定の
閾値を越える場合には、係数を学習させ、差が各回にお
いて半分になるように係数を設定する。すなわち、予測
値と評価値の差が全て半分となるような係数を新たに選
ぶ。
The learning device 41 holds the predicted value from the user model 32 and the evaluation value from the evaluation value calculation device 39 a predetermined number of times (H times), and the difference between these values is continuously set to a constant threshold value. If it exceeds, the coefficient is learned and the coefficient is set so that the difference becomes half at each time. That is, a coefficient is newly selected such that the difference between the predicted value and the evaluation value is half.

【0129】これは、新しい係数={現在の係数(予測
値−評価値)/2評価値}+現在の係数により求まる。
これをH回全ての予測値と評価値の組に対して求め、そ
の平均を新しい係数とする。たとえば、係数が5でHが
3、閾値が2だとして、 ・予測値5,評価値2 ・予測値4,評価値1 ・予測値4,評価値2 という組合せが連続して記録された場合、上記の式に当
てはめ、平均を取ると新しい係数は18.75となり、
同じ入力によってより大きな評価が得られるように修正
される。なお、ここで説明した評価装置はテキスト情報
に限らず、図形やビットマップによる絵などの評価にも
利用することが可能である。
This is obtained by new coefficient = {current coefficient (predicted value-evaluation value) / 2 evaluation value} + current coefficient.
This is obtained for all sets of the predicted value and the evaluation value H times, and the average thereof is used as a new coefficient. For example, assuming that the coefficient is 5, H is 3, and the threshold value is 2, • a combination of predicted value 5, evaluation value 2 • predicted value 4, evaluation value 1 • predicted value 4, evaluation value 2 is continuously recorded , Applying the above equation and taking the average, the new coefficient is 18.75,
The same input is modified to give a larger rating. The evaluation device described here can be used not only for text information but also for evaluation of figures, pictures with bitmaps, and the like.

【0130】[0130]

【発明の効果】本発明によれば、膨大な量のテキストの
中からユーザにとって有益なもののみを選定する際に、
従来のテキスト選定装置では困難とされた、さほど重要
でないキーワードであるが、それらが数多く出現した場
合には、それをユーザにとって必要とするテキストであ
るとして抽出することができる。すなわち、個々のユー
ザによって相違するキーワード相互間の類似性を柔軟に
表現することができ、所望のテキストのみを選定するこ
とができる。
According to the present invention, when selecting only a useful text for a user from a huge amount of text,
The keywords are not so important in the conventional text selection device, but when many appear, they can be extracted as the text required by the user. That is, it is possible to flexibly express the similarity between keywords that are different for each user, and select only a desired text.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係るテキスト選定装置の構
成図
FIG. 1 is a configuration diagram of a text selection device according to an embodiment of the present invention.

【図2】同装置のキーワード連想ネットワーク記憶部に
記憶されているキーワード連想ネットワークの一例を示
す模式図
FIG. 2 is a schematic diagram showing an example of a keyword association network stored in a keyword association network storage unit of the device.

【図3】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード情報の一例を示す図
FIG. 3 is a diagram showing an example of node information stored in a keyword association network storage unit of the device.

【図4】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード間のリンク情報の一例を示す図
FIG. 4 is a diagram showing an example of link information between nodes stored in a keyword association network storage unit of the device.

【図5】同装置のキーワード連想ネットワーク記憶部に
記憶されたノード間のリンクの強さに関する情報の一例
を示す図
FIG. 5 is a diagram showing an example of information regarding the strength of links between nodes stored in a keyword association network storage unit of the device.

【図6】同装置の活性値計算部の機能を説明するための
流れ図。
FIG. 6 is a flowchart for explaining the function of the activity value calculation unit of the device.

【図7】同装置のキーワード記憶部に記憶されたキーワ
ードの一例を示す図
FIG. 7 is a diagram showing an example of keywords stored in a keyword storage unit of the apparatus.

【図8】活性化されたキーワード連想ネットワークの一
例を示す模式図
FIG. 8 is a schematic diagram showing an example of an activated keyword association network.

【図9】同装置のネットワーク更新部の機能を説明する
ための流れ図
FIG. 9 is a flowchart for explaining the function of a network updating unit of the same device.

【図10】同装置のネットワーク更新部の機能を説明す
るための流れ図
FIG. 10 is a flowchart for explaining the function of the network updating unit of the same device.

【図11】同装置のネットワーク更新部の機能を説明す
るための流れ図
FIG. 11 is a flowchart for explaining the function of the network update unit of the same device.

【図12】同装置のネットワーク更新部により更新され
たキーワード連想ネットワークの一例を示す模式図
FIG. 12 is a schematic diagram showing an example of a keyword association network updated by a network updating unit of the same device.

【図13】部分ネットワークに限定して活性値を算出す
る位置例における処理の流れ図
FIG. 13 is a flowchart of processing in a position example in which the activity value is calculated only in a partial network.

【図14】同部分ネットワークを作成するときの処理の
流れ図
FIG. 14 is a flowchart of processing when creating the partial network.

【図15】同部分ネットワーク内のノード同士を結ぶリ
ンクの強さ情報を作成するときの処理の流れ図
FIG. 15 is a flowchart of processing when creating strength information of a link connecting nodes in the same partial network.

【図16】別の部分ネットワークを作成するときの処理
の流れ図
FIG. 16 is a flowchart of processing when creating another partial network.

【図17】部分ネットワークの登録例の一例を示す図FIG. 17 is a diagram showing an example of registration of a partial network.

【図18】部分ネットワークに対応した活性ノードテー
ブルの一例を示す図
FIG. 18 is a diagram showing an example of an active node table corresponding to a partial network.

【図19】評価装置の一例を示す構成図FIG. 19 is a configuration diagram showing an example of an evaluation device.

【図20】同評価装置における制御装置の動作を示す流
れ図
FIG. 20 is a flowchart showing the operation of the control device in the evaluation device.

【図21】同評価装置における座標変換装置の動作を示
す流れ図
FIG. 21 is a flowchart showing the operation of the coordinate conversion device in the evaluation device.

【図22】表示装置への表示例を示す図FIG. 22 is a diagram showing a display example on a display device.

【図23】座標変換装置への入力座標の例を示す図FIG. 23 is a diagram showing an example of input coordinates to the coordinate conversion device.

【図24】座標変換装置での変化出力の例を示す図FIG. 24 is a diagram showing an example of change output in the coordinate conversion device.

【図25】表示装置上での視点位置を説明するための図FIG. 25 is a diagram for explaining a viewpoint position on a display device.

【図26】表示装置上での視点位置の動きを説明するた
めの図
FIG. 26 is a diagram for explaining movement of a viewpoint position on a display device.

【図27】評価値を得るための処理の流れ図FIG. 27 is a flowchart of processing for obtaining an evaluation value.

【図28】利用者が文書に興味がある場合の視線の動き
を説明するための図
FIG. 28 is a diagram for explaining the movement of the line of sight when the user is interested in a document.

【図29】利用者が文書に興味がない場合の視線の動き
を説明するための図
FIG. 29 is a diagram for explaining the movement of the line of sight when the user is not interested in the document.

【符号の説明】[Explanation of symbols]

1…文書記憶部 2…キーワー
ド抽出部 3…キーワード記憶部 4…活性値計
算部 5…キーワード連想ネットワーク記憶部 6…閾値判定
部 7…表示部 8…入力部 9…キーワード連想ネットワーク更新部 21…ノード 31…情報入力装置 32…テキス
ト選定装置 33…情報記憶装置 34…制御装
置 35…入力装置 36…表示装
置 37…視線追跡装置 38…座標変
換装置 39…評価値算出装置 40…評価値
記憶装置 41…学習装置
1 ... Document storage unit 2 ... Keyword extraction unit 3 ... Keyword storage unit 4 ... Activity value calculation unit 5 ... Keyword association network storage unit 6 ... Threshold determination unit 7 ... Display unit 8 ... Input unit 9 ... Keyword association network update unit 21 ... Node 31 ... Information input device 32 ... Text selection device 33 ... Information storage device 34 ... Control device 35 ... Input device 36 ... Display device 37 ... Eye tracking device 38 ... Coordinate conversion device 39 ... Evaluation value calculation device 40 ... Evaluation value storage device 41 ... Learning device

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】個々のキーワードに対応した大きさに関す
る情報および重みに関する情報を持つノードおよびノー
ド間を接続するリンクを備えたキーワード連想ネットワ
ークを用いてユーザが所望としているテキストの選定を
行うテキスト選定装置において、 前記キーワード連想ネットワーク上の全ノードの活性値
を初期状態に設定する手段と、 対象としているテキストから所定のキーワードを抽出す
るキーワード抽出手段と、 この手段により抽出されたキーワードが前記キーワード
連想ネットワーク上にノードとして存在するか否かを判
断する判断手段と、 この判断手段によって前記抽出されたキーワードがノー
ドとして存在すると判断されたときに前記大きさに関す
る情報に基づいて上記抽出されたキーワードに対応する
ノードの活性値を算出する活性値算出手段と、 この手段によって算出されたノードの活性値を前記キー
ワード連想ネットワーク上に伝搬させる活性伝播手段
と、 活性伝搬後における前記キーワード連想ネットワーク上
の全ノードの活性値と重みに関する情報とに基づいて前
記対象としているテキストの得点を算出する得点算出手
段と、 この手段により算出されたテキストの得点が所定の閾値
以上のときに該テキストをユーザに提示する提示手段と
を備えてなることを特徴とするテキスト選定装置。
1. Text selection for selecting a text desired by a user using a keyword associative network provided with nodes having information regarding size and weight corresponding to individual keywords and links connecting the nodes. In the apparatus, means for setting active values of all nodes on the keyword associative network to an initial state, keyword extracting means for extracting a predetermined keyword from the target text, and keywords extracted by this means are associated with the keyword associative network. Determining means for determining whether or not the node exists on the network, and when the determining means determines that the extracted keyword exists as a node, the extracted keyword is added to the extracted keyword based on the information on the size. Liveness value of the corresponding node Active value calculating means for calculating the active value of the node calculated by this means, and active propagation means for propagating the active value of the node on the keyword associative network, and active values and weights of all nodes on the keyword associative network after active propagation. And a presenting means for presenting the text to the user when the score of the text calculated by this means is greater than or equal to a predetermined threshold value. A text selection device characterized by the following.
【請求項2】前記活性値算出手段は、前記テキストから
抽出されたキーワードについて、前記キーワード連想ネ
ットワーク上の各キーワードを中心とする所定領域の部
分ネットワークについて活性値を求めるものであること
を特徴とする請求項1に記載のテキスト選定装置。
2. The activity value calculating means obtains an activity value for a keyword extracted from the text for a partial network of a predetermined area centered on each keyword on the keyword associative network. The text selection device according to claim 1.
【請求項3】前記部分ネットワークは、各キーワードを
中心とする前記キーワード連想ネットワーク上の距離に
よって決められたものであることを特徴とする請求項2
に記載のテキスト選定装置。
3. The partial network is defined by a distance on the keyword associative network centered on each keyword.
The text selection device described in.
【請求項4】前記部分ネットワークは、各キーワードを
中心とする前記キーワード連想ネットワーク上のリンク
の強さによって決められたものであることを特徴とする
請求項2に記載のテキスト選定装置。
4. The text selection device according to claim 2, wherein the partial network is determined by the strength of a link on the keyword associative network centered on each keyword.
【請求項5】前記提示手段は、提示されたテキストに対
する評価値を入力する手段と、この手段により入力され
た評価値に基づいて前記抽出されたキーワードに対応す
るノードの大きさに関する情報を更新する手段とを含ん
でいることを特徴とする請求項1に記載のテキスト選定
装置。
5. The presenting means updates the information about the size of the node corresponding to the extracted keyword based on the evaluation value input by this means and the evaluation value input by the presenting means. 2. The text selection device according to claim 1, further comprising:
【請求項6】前記提示手段は、提示されたテキストをユ
ーザが読む際の視線の動きを追跡し、この追跡情報から
テキストの価値を評価する評価手段をさらに備えている
ことを特徴とする請求項5に記載のテキスト選定装置。
6. The presenting means further comprises an evaluating means for tracking the movement of the line of sight when the user reads the presented text, and for evaluating the value of the text from the tracking information. Item 5. The text selection device according to item 5.
【請求項7】入力されたテキスト情報の中からユーザに
有用と思われるテキスト情報を取出して重要度を予測
し、重要と判定されたテキスト情報をユーザに表示提示
するテキスト選定装置本体と、 表示されたテキスト情報をユーザが読む際の視線の動き
を追跡し、この追跡情報から表示されているテキスト情
報に対するユーザの興味の度合を評価して前記テキスト
選定装置本体にフィードバックする評価手段と、 この評価手段によって得られた評価値と前記テキスト選
定装置本体で用いた予測値とを用いて上記評価手段での
評価の際に用いる係数を学習する学習手段とを具備して
なることを特徴とするテキスト選定装置。
7. A text selection device main body for extracting text information considered to be useful for a user from the input text information, predicting the degree of importance, and displaying and presenting the text information determined to be important to the user. An evaluator that tracks the movement of the line of sight when the user reads the displayed text information, evaluates the degree of interest of the user with respect to the displayed text information from the tracking information, and feeds it back to the main body of the text selection device; It is characterized by comprising learning means for learning the coefficient used in the evaluation by the evaluation means by using the evaluation value obtained by the evaluation means and the predicted value used in the text selection device body. Text selection device.
JP06188594A 1993-09-08 1994-03-31 Text selection device Expired - Fee Related JP3469302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06188594A JP3469302B2 (en) 1993-09-08 1994-03-31 Text selection device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP22292493 1993-09-08
JP5-222924 1993-09-08
JP06188594A JP3469302B2 (en) 1993-09-08 1994-03-31 Text selection device

Publications (2)

Publication Number Publication Date
JPH07129593A true JPH07129593A (en) 1995-05-19
JP3469302B2 JP3469302B2 (en) 2003-11-25

Family

ID=26402971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06188594A Expired - Fee Related JP3469302B2 (en) 1993-09-08 1994-03-31 Text selection device

Country Status (1)

Country Link
JP (1) JP3469302B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190451A (en) * 1996-01-09 1997-07-22 Oki Electric Ind Co Ltd Information retrieving device
JPH09245059A (en) * 1996-03-12 1997-09-19 Sharp Corp Key word extracting means and concept extracting means, and key word extracting device and concept extracting device
JPH1153350A (en) * 1997-08-07 1999-02-26 Fuji Xerox Co Ltd Document evaluation method and document evaluation device
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
JP2002366569A (en) * 2001-06-06 2002-12-20 Sony Corp System and method for selecting advertisement, and storage medium
JP2003522993A (en) * 1999-07-16 2003-07-29 エイジェントアーツ インコーポレイテッド Method and system for creating automated alternative content recommendations
US6976070B1 (en) 1999-02-16 2005-12-13 Kdd Corporation Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
JP2008071370A (en) * 2007-12-03 2008-03-27 Fujitsu Ltd Needs information construction method, needs information construction device, needs information construction program, and recording medium recorded therewith
JP2014048689A (en) * 2012-08-29 2014-03-17 Konica Minolta Inc Retrieval support system, retrieval support method, and computer program
WO2019146084A1 (en) * 2018-01-26 2019-08-01 三菱電機株式会社 Information presentation device and information presentation system
WO2020235468A1 (en) * 2019-05-17 2020-11-26 株式会社アイエクセス Cluster analysis method, cluster analysis system, and cluster analysis program
JP2021071853A (en) * 2019-10-30 2021-05-06 株式会社野村総合研究所 Preference analyzing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224068A (en) * 1989-02-27 1990-09-06 Toshiba Corp Information retrieving system
JPH0394375A (en) * 1989-05-29 1991-04-19 Ricoh Co Ltd Device for retrieving document
JPH03122770A (en) * 1989-10-05 1991-05-24 Ricoh Co Ltd Method for retrieving keyword associative document
JPH04106656A (en) * 1990-08-27 1992-04-08 Agency Of Ind Science & Technol Device for exhibiting japanese sentence corresponding to noted point
JPH04192751A (en) * 1990-11-27 1992-07-10 Toshiba Corp Electronic newspaper system for personal subscriber
JPH0635889A (en) * 1992-07-20 1994-02-10 Hitachi Ltd Neural network device and learning method therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224068A (en) * 1989-02-27 1990-09-06 Toshiba Corp Information retrieving system
JPH0394375A (en) * 1989-05-29 1991-04-19 Ricoh Co Ltd Device for retrieving document
JPH03122770A (en) * 1989-10-05 1991-05-24 Ricoh Co Ltd Method for retrieving keyword associative document
JPH04106656A (en) * 1990-08-27 1992-04-08 Agency Of Ind Science & Technol Device for exhibiting japanese sentence corresponding to noted point
JPH04192751A (en) * 1990-11-27 1992-07-10 Toshiba Corp Electronic newspaper system for personal subscriber
JPH0635889A (en) * 1992-07-20 1994-02-10 Hitachi Ltd Neural network device and learning method therefor

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
JPH09190451A (en) * 1996-01-09 1997-07-22 Oki Electric Ind Co Ltd Information retrieving device
JPH09245059A (en) * 1996-03-12 1997-09-19 Sharp Corp Key word extracting means and concept extracting means, and key word extracting device and concept extracting device
JPH1153350A (en) * 1997-08-07 1999-02-26 Fuji Xerox Co Ltd Document evaluation method and document evaluation device
US6976070B1 (en) 1999-02-16 2005-12-13 Kdd Corporation Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
JP2003522993A (en) * 1999-07-16 2003-07-29 エイジェントアーツ インコーポレイテッド Method and system for creating automated alternative content recommendations
JP4743740B2 (en) * 1999-07-16 2011-08-10 マイクロソフト インターナショナル ホールディングス ビー.ブイ. Method and system for creating automated alternative content recommendations
JP2002366569A (en) * 2001-06-06 2002-12-20 Sony Corp System and method for selecting advertisement, and storage medium
JP4616877B2 (en) * 2007-12-03 2011-01-19 富士通株式会社 Needs information construction method, needs information construction device, needs information construction program, and recording medium recording the same
JP2008071370A (en) * 2007-12-03 2008-03-27 Fujitsu Ltd Needs information construction method, needs information construction device, needs information construction program, and recording medium recorded therewith
JP2014048689A (en) * 2012-08-29 2014-03-17 Konica Minolta Inc Retrieval support system, retrieval support method, and computer program
WO2019146084A1 (en) * 2018-01-26 2019-08-01 三菱電機株式会社 Information presentation device and information presentation system
JPWO2019146084A1 (en) * 2018-01-26 2020-05-28 三菱電機株式会社 Information presentation device and information presentation system
WO2020235468A1 (en) * 2019-05-17 2020-11-26 株式会社アイエクセス Cluster analysis method, cluster analysis system, and cluster analysis program
JP6852941B1 (en) * 2019-05-17 2021-03-31 株式会社アイエクセス Cluster analysis method, cluster analysis system, and cluster analysis program
US11636144B2 (en) 2019-05-17 2023-04-25 Aixs, Inc. Cluster analysis method, cluster analysis system, and cluster analysis program
JP2021071853A (en) * 2019-10-30 2021-05-06 株式会社野村総合研究所 Preference analyzing device

Also Published As

Publication number Publication date
JP3469302B2 (en) 2003-11-25

Similar Documents

Publication Publication Date Title
CN112632385B (en) Course recommendation method, course recommendation device, computer equipment and medium
CN111753060B (en) Information retrieval method, apparatus, device and computer readable storage medium
US11163842B2 (en) Personalized table of contents (TOC) generation based on search results
CN111708873A (en) Intelligent question answering method and device, computer equipment and storage medium
US11023503B2 (en) Suggesting text in an electronic document
CN111898374B (en) Text recognition method, device, storage medium and electronic equipment
WO2021120588A1 (en) Method and apparatus for language generation, computer device, and storage medium
US20210279622A1 (en) Learning with limited supervision for question-answering with light-weight markov models
KR102355152B1 (en) Method for searching content and electronic device thereof
US7325010B1 (en) Information modeling method and database searching method using the information modeling method
JPH07129593A (en) Text selecting device
WO2019060520A1 (en) Method, apparatus, and computer-readable media for customer interaction semantic annotation and analytics
CN111831924A (en) Content recommendation method, device, equipment and readable storage medium
CN112131345B (en) Text quality recognition method, device, equipment and storage medium
KR102204491B1 (en) Continuous conversation method and system by using automating conversation scenario network
JP3315781B2 (en) User information management device, information filter, information classification device, information reproduction device, information search device, and kana-kanji conversion device
CN111368555A (en) Data identification method and device, storage medium and electronic equipment
CN114330704A (en) Statement generation model updating method and device, computer equipment and storage medium
CN112231554A (en) Search recommendation word generation method and device, storage medium and computer equipment
CN116975221A (en) Text reading and understanding method, device, equipment and storage medium
WO2023040516A1 (en) Event integration method and apparatus, and electronic device, computer-readable storage medium and computer program product
CN110929526A (en) Sample generation method and device and electronic equipment
Carl Empirical translation process research: Past and possible future perspectives
CN111126033A (en) Response prediction device and method for article
Li et al. Learning to Play Text-Based Adventure Games with Maximum Entropy Reinforcement Learning

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees