JP3495912B2 - Search device with learning function - Google Patents

Search device with learning function

Info

Publication number
JP3495912B2
JP3495912B2 JP14241398A JP14241398A JP3495912B2 JP 3495912 B2 JP3495912 B2 JP 3495912B2 JP 14241398 A JP14241398 A JP 14241398A JP 14241398 A JP14241398 A JP 14241398A JP 3495912 B2 JP3495912 B2 JP 3495912B2
Authority
JP
Japan
Prior art keywords
search
function
learning
request sentence
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14241398A
Other languages
Japanese (ja)
Other versions
JPH11338864A (en
Inventor
清水  仁
晴光 宮川
育雄 芥子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP14241398A priority Critical patent/JP3495912B2/en
Publication of JPH11338864A publication Critical patent/JPH11338864A/en
Application granted granted Critical
Publication of JP3495912B2 publication Critical patent/JP3495912B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータ・ア
プリケーション、OA機器、家電製品などに搭載される
学習機能付き検索装置に関するもので、使用者が過去に
行った検索要求文と選択した機能名を記憶することで使
用者が要求する文章を取り出しやすくした学習機能付き
検索装置である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a search device with a learning function that is installed in computer applications, office automation equipment, home electric appliances, and the like. It is a retrieval device with a learning function that makes it easy to retrieve the sentence requested by the user by storing it.

【0002】[0002]

【従来の技術】従来の検索では使用者が少なくとも一つ
のキーワードを入力し、検索対象となる文書等に対して
文書が含むキーワード数やキーワードの種類などで使用
者の要求と文書間の類似度を評価し、使用者の要求に合
う文書を正解として出力させている。
2. Description of the Related Art In a conventional search, a user inputs at least one keyword, and the degree of similarity between the user's request and the document is determined by the number of keywords contained in the document, the type of the keyword, etc. Is evaluated and the document that meets the user's request is output as the correct answer.

【0003】しかし、従来の検索では二つの点が問題に
なっている。第1点目は使用者が入力したキーワードと
文書に含まれるキーワードが完全に一致していないと
「関連がある」と判断されず、すなわち同一の単語では
なく、類似の単語では無視されるため、使用者の入力し
たキーワードの内容によっては必要な文書が取り出され
ない可能性があることである。第2点目は検索結果の精
度が悪かった場合、使用者が選択した文書等の情報を用
いて次に行われる検索の結果を良くするための方法を備
えていないため、同じ要求を入力しても同じ結果しか返
ってこないことである。
However, the conventional search has two problems. The first point is that if the keyword entered by the user and the keyword contained in the document do not exactly match, it is not judged as "related", that is, not the same word, but similar words are ignored. The required document may not be retrieved depending on the content of the keyword input by the user. The second point is that if the accuracy of the search result is poor, there is no method for improving the result of the next search using the information such as the document selected by the user. However, the same result is returned.

【0004】類似した単語を含む文書を検索できるよう
にするための方法として電子情報通信学会発行の信学技
報AI92―99(1993年)「大規模データベース
からの連想検索」で提案された文脈ベクトル(本発明で
は特徴ベクトルと呼んでいる)を用いる方法がある。こ
の手法では、字面が一致していなくても単語、文の間の
意味的な類似度を評価することができる。この特徴ベク
トルを検索に用いた例では例えば特開平6―19538
8号公報がある。
As a method for making it possible to retrieve a document containing similar words, the context proposed in IEICE Technical Report AI 92-99 (1993) "Associative retrieval from a large-scale database" is published. There is a method of using a vector (which is called a feature vector in the present invention). With this method, it is possible to evaluate the semantic similarity between words and sentences even if the characters do not match. An example of using this feature vector for retrieval is, for example, Japanese Patent Laid-Open No. 19538/1994.
There is publication No. 8.

【0005】また、検索の結果を記録して後の検索に用
い、検索効率の向上を目的とする発明として特開平7―
182353号公報がある。当該公報記載の発明では検
索結果を記録することで学習を行ない、後の検索で記録
した結果を参照して検索を行なう技術が開示されてい
る。つまり、複数のキーワードからなる検索キーを入力
とし、キーワード検索とキーワード間の位置関係により
出力する文書を決める。学習部に検索キーが登録されて
いなければ、検索キーと出力された文書の番号を学習部
に記録し、後の検索で同じ検索キーが入力された場合
は、学習部に記録されている番号を持つ文書を出力させ
る。
Further, as an invention aiming at improving the search efficiency, the result of the search is recorded and used in a later search, as disclosed in JP-A-7-
There is 182353 publication. The invention described in the publication discloses a technique for performing learning by recording a search result and performing a search by referring to a result recorded in a later search. That is, a search key composed of a plurality of keywords is input, and a document to be output is determined based on the keyword search and the positional relationship between the keywords. If the search key is not registered in the learning unit, the search key and the number of the output document are recorded in the learning unit. If the same search key is input in a later search, the number recorded in the learning unit is recorded. Output a document with.

【0006】[0006]

【発明が解決しようとする課題】特開平7―18235
3号公報では、過去に入力された検索キー(キーワード
列)と検索された文書のIDを記録することで学習機能
を実現し、後に同じ検索キーが入力されたときにIDが
記録されている文書を正解文書として出力する。しか
し、学習内容は検索された文書のIDを自動的に記録す
るので、検索された文書が正解かどうかの判定は行なわ
れず、学習が検索精度の向上にはつながらない。
[Problems to be Solved by the Invention] Japanese Patent Application Laid-Open No. 7-18235
In the publication No. 3, the learning function is realized by recording the search key (keyword string) input in the past and the ID of the searched document, and the ID is recorded when the same search key is input later. Output the document as a correct answer document. However, since the learning content automatically records the ID of the retrieved document, it is not determined whether or not the retrieved document is the correct answer, and the learning does not improve the retrieval accuracy.

【0007】また、検索手法はキーワード検索なので、
学習されている検索キーと同一の検索キーを入力しない
限り学習の効果が現れない。
Since the search method is keyword search,
The learning effect does not appear unless you enter the same search key as the learned search key.

【0008】さらに、当該公報では、検索時にまず学習
した内容を参照し、入力されたキーワードと、学習され
ているキーワードが完全に一致した場合には、学習され
ている内容の方を出力する。このため、データベースへ
の追加等で入力キーワードに対し、より関連性のある内
容が存在しても検索されない。
Further, in the publication, the learned content is first referred to at the time of search, and when the input keyword and the learned keyword completely match, the learned content is output. Therefore, even if there is more relevant content with respect to the input keyword such as addition to the database, it will not be searched.

【0009】かかる課題を解決するため、本発明では、
特徴ベクトルによる検索方法を用い、さらに検索結果を
学習することによって後の検索の精度向上を図る。特徴
ベクトルを用いることで、意味的に類似した単語を含む
文書も検索することができる。また、検索結果が良くな
い場合には検索要求文と使用者が選択した正解を記録
し、後の検索時に記録内容を参照することで検索精度の
向上を図る。
In order to solve such a problem, the present invention provides:
We will improve the accuracy of subsequent searches by using the search method based on the feature vector and by learning the search results. By using the feature vector, it is possible to search for documents that include words that are semantically similar. Further, when the search result is not good, the search request sentence and the correct answer selected by the user are recorded, and the search accuracy is improved by referring to the recorded contents at the time of the subsequent search.

【0010】また、本発明では学習済みのキーワードを
優先するようなことはなく、データベースと学習されて
いる内容を両方とも検索対象とし、両方の内容を評価し
て検索結果を出力させている。このためより正確な評価
ができる。
Further, in the present invention, the learned keyword is not prioritized, both the database and the learned contents are targeted for retrieval, and both contents are evaluated and the retrieval result is output. Therefore, more accurate evaluation can be performed.

【0011】[0011]

【課題を解決するための手段】本発明では上記の問題点
を解決するために検索に失敗したときの検索要求文と、
使用者が正解とみなした機能名の組を学習する。後の検
索においては学習内容を検索に用いることで、過去に検
索に失敗した検索要求文に類似した検索要求文が入力さ
れたときに使用者が正解とみなした機能名が検索される
ようにする。
According to the present invention, a search request sentence when a search fails in order to solve the above problems,
A set of function names that the user considers to be correct is learned. In the subsequent search, the learning content is used for the search so that the function name that the user considers to be the correct answer is searched when the search request sentence similar to the search request sentence that failed in the past is input. To do.

【0012】請求項1の発明は、検索要求文を入力する
入力手段と、検索結果を出力する出力手段と、検索要求
文と使用者が正解とみなした機能名のID情報を記録す
る質問履歴格納手段と、機能の名称を示す機能名と、該
機能名を示すID情報と、所望の機能について尋ねる検
索要求文の例としての想定要求文と、前記検索結果にお
いて表示すべき機能名の説明文とを対応させて保持する
機能データベースと、前記検索結果において使用者が正
解とみなした機能名の出力順位が低い場合に、当該検索
要求文と使用者が正解とみなした機能名のID情報を質
問履歴格納手段に書き込んで学習を行なう学習装置と、
前記質問履歴格納手段と前記機能データベースの双方を
参照して入力された検索要求文から機能名を検索する検
索手段と、を有することを特徴とする。
According to the invention of claim 1, an input means for inputting a search request sentence, an output means for outputting a search result, a question history for recording the search request sentence and the ID information of the function name which the user considers to be the correct answer. Storage means, function name indicating function name, ID information indicating the function name, assumed request sentence as an example of search request sentence inquiring about a desired function, and description of function name to be displayed in the search result When the output rank of the function database that holds the sentence in correspondence with the function name that the user regarded as the correct answer in the search result is low, the search request sentence and the ID information of the function name that the user regarded as the correct answer A learning device for writing the question history into the question history storage means for learning.
Search means for searching a function name from a search request sentence input by referring to both the question history storage means and the function database.

【0013】請求項1の発明では、使用者は入力手段を
通じて検索要求文を入力し、検索機能により検索要求文
と各項目の想定要求文との類似度が評価され、検索結果
が出力される。使用者は要求に合っていると考える機能
名を選択する。このとき、使用者が検索結果から選択し
た機能名の順位が定められたものよりも低かった場合
は、検索要求文と使用者が選択した機能に関する情報を
質問履歴格納手段に記録し、学習を行なう。後の検索で
は、前記質問履歴格納手段に記録された学習内容と機能
データベースの両方を検索対象とする。
In the invention of claim 1, the user inputs the search request sentence through the input means, the similarity between the search request sentence and the assumed request sentence of each item is evaluated by the search function, and the search result is output. . The user selects a function name that he considers fit. At this time, if the rank of the function name selected by the user from the search results is lower than the predetermined rank, the search request sentence and the information regarding the function selected by the user are recorded in the question history storage means, and learning is performed. To do. In the subsequent search, both the learning content and the function database recorded in the question history storage means are searched.

【0014】ここで、学習時に使用者が入力した検索要
求文を学習用の辞書に分けて記録するのがよいが、これ
は使用者が入力した検索要求文は想定要求文より重要で
あるため、検索要求文を検索対象として別に扱う必要が
あることと、学習された検索要求文と想定要求文は意味
的に関連性が無いので機能名ベクトル作成時に悪影響が
出るのを防ぐためである。
Here, it is preferable that the search request sentence input by the user at the time of learning is divided and recorded in a dictionary for learning because this is because the search request sentence input by the user is more important than the expected request sentence. This is because it is necessary to separately handle the search request sentence as a search target, and the learned search request sentence and the assumed request sentence are not semantically related to each other so as to prevent an adverse effect when the function name vector is created.

【0015】請求項2の発明は、前記質問履歴格納手段
は、使用者の学習状態の変化により不要になった学習内
容を消去することを特徴とする。
According to a second aspect of the present invention, the question history storage means erases learning contents that have become unnecessary due to a change in the learning state of the user.

【0016】請求項2の発明では、前記質問履歴格納手
段に記録された学習内容を適切な状態にする。検索機能
を使ううちに使用者は機能と説明文の内容を学習する。
機能データベースに記録されている説明文の内容を学習
すると使用者は学習した説明文内容に関しては検索要求
文を出さなくなる。そのため、質問履歴格納手段に記録
されている検索要求文で、使用者が学習した内容に関係
するものは必要なくなる。そこで参照されてから時間の
経つ学習内容を捨てることで質問履歴格納手段の学習内
容を使用者の学習状態に合わせることができる。
According to the second aspect of the present invention, the learning content recorded in the question history storage means is put in an appropriate state. While using the search function, the user learns the function and the content of the explanation.
When the content of the explanatory note recorded in the function database is learned, the user will not issue a search request sentence regarding the learned explanatory note content. Therefore, the search request sentence recorded in the question history storage means need not be related to the contents learned by the user. Therefore, by discarding the learning content that has passed a time after being referred to, the learning content of the question history storage means can be matched with the learning state of the user.

【0017】請求項3の発明は、前記検索手段が検索を
行なった結果、前記質問履歴格納手段に記録されている
検索要求文と入力された検索要求文とが最も類似してい
る場合に、学習されている機能名のID情報から前記機
能データベースを参照し、ID情報に対応する想定要求
文に基づいて再び検索を行なうことを特徴とする。
According to a third aspect of the present invention, when the search request text recorded in the question history storage means is most similar to the input search request text as a result of the search by the search means, It is characterized in that the function database is referred to from the ID information of the learned function name, and the search is performed again based on the assumed request sentence corresponding to the ID information.

【0018】つまり、前記質問履歴記録手段に記録され
ている検索要求文が入力された検索要求文に最も類似し
ていると判断されたときのための機能である。この状態
になった場合、学習されているID情報を用いて機能デ
ータベースから想定要求文を参照し、再度検索機能によ
り検索を行ない、入力された検索要求文に類似した内容
の機能名を検索するフィードバック機能である。
That is, this is a function for when it is determined that the search request text recorded in the question history recording means is most similar to the input search request text. In this case, the assumed request sentence is referenced from the function database using the learned ID information, the search function is searched again, and the function name having contents similar to the input search request sentence is searched. It is a feedback function.

【0019】請求項3の発明では、質問履歴格納手段に
記録された検索要求文が検索結果の1位に出力された場
合に実行する機能である。質問履歴格納手段には正解が
出力される順位の低い検索要求文が記録されている。質
問履歴格納手段に記録されている検索要求文は機能デー
タベース中の想定要求文との類似度が低い。そのため使
用者が入力した検索要求文と質問履歴格納手段に学習さ
れている検索要求文の類似度が高い場合、機能データベ
ースに記録されている想定要求文は使用者が入力した検
索要求文とは類似度が低い。
According to the third aspect of the present invention, the function is executed when the retrieval request sentence recorded in the question history storage means is output to the first place in the retrieval result. In the question history storage means, a search request sentence in which the correct answer is output and whose rank is low is recorded. The search request sentence recorded in the question history storage means has a low degree of similarity with the assumed request sentence in the function database. Therefore, when the similarity between the search request text input by the user and the search request text learned in the question history storage means is high, the assumed request text recorded in the function database is not the search request text input by the user. The degree of similarity is low.

【0020】そこで、検索要求文と組にして学習されて
いる機能名のIDを参照して想定要求文を読み出し、当
該想定要求文に基づく想定要求文ベクトルを検索要求文
ベクトルとして用い、再度連想検索を行なう。本発明で
はこのような検索の方法をフィードバック検索と呼んで
いる。これにより検索要求文の内容により近い説明文を
出力させることができる。
Therefore, the assumed request sentence is read by referring to the ID of the function name learned in combination with the search request sentence, the assumed request sentence vector based on the assumed request sentence is used as the search request sentence vector, and the association is reassociated. Perform a search. In the present invention, such a search method is called feedback search. As a result, it is possible to output an explanatory text closer to the content of the search request text.

【0021】請求項4の発明は、前記検索手段は、検索
要求文のキーワードと想定要求文中のキーワードの一致
度に基づいて検索を行なうことを特徴とする。
According to a fourth aspect of the present invention, the search means performs the search based on the degree of coincidence between the keyword of the search request sentence and the keyword of the assumed request sentence.

【0022】請求項4の発明では、まず検索機能に入力
された検索要求文から重要なキーワードを取り出す。次
に機能データベース中の想定要求文を参照し、同様に想
定要求文からキーワードを取り出す。想定要求文から取
り出したキーワードについては各機能名をキーワード集
合の単位とし、双方のキーワード集合の一致度を算出
し、検索結果として一致度の高い順に機能名を出力す
る。つまり、検索要求文からキーワード集合を取り出
し、各機能名の項目の想定要求文からも項目ごとにキー
ワード集合を取り出す。そしてキーワード集合ごとの一
致度を算出し、一致度の順に各項目の機能名を検索結果
として出力する。
In the fourth aspect of the present invention, first, an important keyword is extracted from the search request sentence input to the search function. Next, the expected request sentence in the function database is referenced, and the keyword is similarly extracted from the expected request sentence. With respect to the keywords extracted from the supposed request sentence, each function name is used as a unit of the keyword set, the degree of coincidence between both keyword sets is calculated, and the function names are output in descending order of the degree of coincidence as a search result. That is, the keyword set is extracted from the search request sentence, and the keyword set is extracted for each item also from the assumed request sentence of the item of each function name. Then, the degree of coincidence for each keyword set is calculated, and the function name of each item is output as a search result in the order of degree of coincidence.

【0023】請求項5の発明は、前記検索手段は、検索
要求文の特徴ベクトルと想定要求文の特徴ベクトルの内
積結果に基づいて検索を行なうことを特徴とする。
According to a fifth aspect of the present invention, the search means performs the search based on an inner product result of the feature vector of the search request sentence and the feature vector of the assumed request sentence.

【0024】ベクトル生成機能では単語と単語の特徴ベ
クトルを記録した単語ベクトル辞書を参照して複数の単
語を含む文の意味を表すベクトルを作成し、検索要求文
ベクトルと各機能ごとの機能名ベクトルを作成する。ベ
クトルの内積をとることで要求文ベクトルと各機能名ベ
クトルの類似度を評価し、類似度の順に各機能名ベクト
ルに対応する機能名を出力する。
In the vector generation function, a vector representing the meaning of a sentence including a plurality of words is created by referring to a word vector dictionary in which words and feature vectors of words are recorded, and a search request sentence vector and a function name vector for each function are created. To create. By calculating the dot product of the vectors, the similarity between the request sentence vector and each function name vector is evaluated, and the function names corresponding to each function name vector are output in the order of similarity.

【0025】ここで用いている特徴ベクトルとは、
(社)電子情報通信学会発行の信学技報AI92−99
(1993年)「大規模データベースからの連想検索」
で提案された文脈ベクトルのことである。つまり、本発
明中の「特徴ベクトル」は上記の「文脈ベクトル」にそ
のまま対応する。この特徴ベクトルを用いた検索として
特開平6−195388号公報がある。
The feature vector used here is
IEICE Technical Report AI92-99 published by The Institute of Electronics, Information and Communication Engineers
(1993) "Associative search from large-scale database"
It is the context vector proposed in. That is, the "feature vector" in the present invention directly corresponds to the above "context vector". Japanese Patent Laid-Open No. 6-195388 discloses a search using this feature vector.

【0026】特徴ベクトルとは、文章中の単語が持つ概
念と文脈との関係の程度を示したものであり、多数の特
徴単語との意味的な結合関係の程度をベクトル表現した
ものである。N個の概念分類を特徴単語とすると、N次
元ベクトルの各要素の値を一つ一つの特徴単語に対応さ
せることになる。単語iの特徴ベクトルXi=(xi
1,xi2,…,xiN)の各要素の値は、0≦xij
≦Emとなる。Emは、正の定数である。単語iと特徴
単語jとの間に関係がない場合には、xij=0にな
り、関係がある場合にはその関係の程度に応じて大きい
値をとる。例えば、特徴ベクトルが5つの特徴単語(自
然,都会,騒音,動物,緑)から成り立っているとし、
それぞれの要素の値が0か1の2値である場合には、単
語「山」の特徴ベクトルを、(1,0,0,1,1)等
と表すことができる。
The feature vector indicates the degree of the relationship between the concept and the context of the words in the sentence, and is a vector expression of the degree of the semantic connection with many feature words. When the N concept classifications are characteristic words, the value of each element of the N-dimensional vector is associated with each characteristic word. Feature vector Xi = (xi
, Xi2, ..., xiN) is 0 ≦ xij
≦ Em. Em is a positive constant. When there is no relationship between the word i and the characteristic word j, xij = 0, and when there is a relationship, a large value is taken according to the degree of the relationship. For example, if the feature vector consists of five feature words (nature, city, noise, animal, green),
When the value of each element is a binary value of 0 or 1, the feature vector of the word “mountain” can be expressed as (1, 0, 0, 1, 1).

【0027】請求項5の発明では、単語の特徴ベクトル
を用いて検索要求文と想定要求文の類似度を評価する方
法である。ベクトル生成機能により要求文ベクトルと各
項目ごとの想定要求文ベクトルを作成し、連想検索機能
により各ベクトル間の類似度を評価する。要求文ベクト
ルとの類似度の順に検索結果として各項目の機能名を出
力する。
The invention of claim 5 is a method for evaluating the degree of similarity between a search request sentence and an assumed request sentence using a feature vector of a word. The request sentence vector and the assumed request sentence vector for each item are created by the vector generation function, and the similarity between the vectors is evaluated by the associative search function. The function name of each item is output as a search result in the order of similarity with the request sentence vector.

【0028】[0028]

【発明の実施の形態】以下、ワープロの各種機能を例に
とり、本実施の形態について説明する。図1は本発明の
装置の概略図である。この学習機能付き検索装置は検索
要求の入力や検索結果から機能名を選択するためのキー
入力操作を行なうキーボード等の入力手段1、検索結果
を表示するためのディスプレイ等の出力手段2、学習機
能付き検索装置を制御する制御手段3、図3に例示する
ような検索対象となる機能名、想定要求文、説明文を記
録した機能データベース8、検索要求文と想定要求文の
類似度を評価し、各機能名ごとに検索要求文との意味的
な類似度を計算する検索機能7からなる。
BEST MODE FOR CARRYING OUT THE INVENTION The present embodiment will be described below by taking various functions of a word processor as an example. FIG. 1 is a schematic diagram of the apparatus of the present invention. This search device with a learning function has an input means 1 such as a keyboard for inputting a search request and a key input operation for selecting a function name from the search result, an output means 2 such as a display for displaying the search result, and a learning function. The control means 3 for controlling the attached search device, the function name 8 to be searched as illustrated in FIG. 3, the assumed request sentence, the function database 8 in which the explanation sentence is recorded, and the similarity between the search request sentence and the expected request sentence are evaluated. , A search function 7 for calculating the semantic similarity to the search request sentence for each function name.

【0029】制御手段3は、使用者が正解と判断する機
能名が出力される順位が所定順位より低い場合、検索要
求文とその機能名のIDを記録して過去の検索結果を学
習することで、後の検索で学習した検索要求文と類似し
た検索要求文が入力された場合に記録されているIDを
参照し、過去に選択した正解機能の説明文を表示できる
ようにする質問履歴格納手段4、検索の結果、質問履歴
格納手段4に記録されている検索要求文が入力された検
索要求文に類似していると判断された場合に、IDに示
される機能名の想定要求文を参照し、機能名ベクトルを
検索要求文ベクトルとして扱うことで再度検索を行なう
学習装置5、質問履歴格納手段4から学習内容を読み出
し、機能データベース8と統合させて検索機能7の検索
対象となるデータベースを作成するデータベース作成機
能6から構成される。
The control means 3 records the search request sentence and the ID of the function name to learn the past search result when the rank of the function name judged by the user to be the correct answer is lower than the predetermined rank. A question history storage that allows you to refer to the ID recorded when a search request sentence similar to the search request sentence learned in the subsequent search is input and to display the explanation text of the correct answer function selected in the past The means 4, as a result of the search, when it is determined that the search request text recorded in the question history storage means 4 is similar to the input search request text, the assumed request text of the function name indicated by the ID is displayed. Data to be searched by the search function 7 by reading the learning content from the learning device 5 and the question history storage means 4 which perform a search again by referring to the function name vector as a search request sentence vector and integrating it with the function database 8. And a database creation function 6 to create an over nest.

【0030】図2は単語ベクトル辞書13のデータ構造
を示すものである。当該単語ベクトル辞書13は、単語
とその単語の意味内容を表すベクトルを記録したもので
あり、検索機能7の一部として検索時に参照されるもの
である(図9参照)。ベクトルの各要素はあらかじめ決
められた概念との関連性を示し、概念と関連があれば
1、なければ0となる。
FIG. 2 shows the data structure of the word vector dictionary 13. The word vector dictionary 13 records a word and a vector indicating the meaning and content of the word, and is referred to at the time of search as a part of the search function 7 (see FIG. 9). Each element of the vector indicates a relationship with a predetermined concept, which is 1 if the concept is related and 0 if not.

【0031】図3は機能データベース8のデータ構造を
示すものである。機能データベース8は検索対象であ
り、そのデータ構造は、検索結果として出力する機能名
(センタリング、網掛けなど)、機能名のID、機能名
が正解となるような要求文である想定要求文、検索結果
において機能名が選択されたときに表示する説明文から
構成される。
FIG. 3 shows the data structure of the function database 8. The function database 8 is a search target, and its data structure includes a function name (centering, shading, etc.) output as a search result, an ID of the function name, and an assumed request statement that is a request statement in which the function name is correct, It is composed of a description displayed when a function name is selected in the search result.

【0032】図4は質問履歴格納手段4のデータ構造で
ある。本発明では、機能データベース8とは別に学習用
のデータベースとして質問履歴格納手段4を用いる。学
習内容の書き込み、消去は質問履歴格納手段4で行い、
機能データベース8の修正等は行なわない。検索時には
別々のデータベースを同時に検索対象とする。出力結果
において、使用者が正解とみなした機能名の順位が所定
順位より低い場合のみ検索要求文と機能名のIDの組を
記録する。検索時には機能データベース8と同様に扱
い、記録される検索要求文を想定要求文として扱う。
FIG. 4 shows the data structure of the question history storage means 4. In the present invention, the question history storage means 4 is used as a learning database in addition to the function database 8. Writing and erasing the learning content is performed in the question history storage means 4,
The function database 8 is not modified. When searching, separate databases are searched simultaneously. In the output result, the set of the search request sentence and the function name ID is recorded only when the rank of the function name regarded as the correct answer by the user is lower than the predetermined rank. At the time of search, it is handled in the same manner as the function database 8 and the recorded search request sentence is treated as an assumed request sentence.

【0033】図5は、質問履歴格納手段4で学習内容を
管理する方法の概要を示す図である。質問履歴格納手段
4に記録する学習内容は、学習した順序(時間順)で管
理する。検索の際、学習内容が検索要求文に類似してい
るとして検索結果中に出力された場合、その学習内容は
新しく学習されたものとして再書き込みを行なう。検索
時に質問履歴格納手段4に記録できる学習内容の数をあ
らかじめ決めておき、学習内容の数が決められた数を超
えた場合に古い内容を削除する。
FIG. 5 is a diagram showing an outline of a method of managing the learning contents in the question history storage means 4. The learning contents recorded in the question history storage unit 4 are managed in the learning order (time order). During the search, if the learning content is output in the search result as being similar to the search request sentence, the learning content is rewritten as newly learned. The number of learning contents that can be recorded in the question history storage unit 4 at the time of search is determined in advance, and when the number of learning contents exceeds the determined number, old contents are deleted.

【0034】使用者が学習させた機能に関する検索要求
文が入力されなくなると、その機能を正解とする学習内
容は質問履歴格納手段4内では古いものとして扱われる
ようになる。そのため、古い学習内容は質問履歴格納手
段4に書き込んでおく必要性がない。
When the search request sentence relating to the function learned by the user is no longer input, the learning content with the function as the correct answer is treated as old in the question history storage means 4. Therefore, it is not necessary to write old learning contents in the question history storage unit 4.

【0035】質問履歴格納手段4で行なう操作は、新し
い学習内容の書き込み、古い学習内容の削除、すでに記
録されている学習内容が検索結果の上位に現れた場合の
再書き込みである。
The operation performed by the question history storage means 4 is to write new learning contents, delete old learning contents, and rewrite when learning contents that have already been recorded appear in the higher ranks of the search results.

【0036】図6は学習内容の削除方法を示すフローチ
ャートである。ステップS1において学習装置5により
学習条件の判断が行われ、学習条件が満たされる場合、
ステップS2に進み検索要求文、機能名のIDが質問履
歴格納手段4に渡される。
FIG. 6 is a flowchart showing a method of deleting learning contents. When the learning condition is determined by the learning device 5 in step S1 and the learning condition is satisfied,
In step S2, the search request sentence and the function name ID are passed to the question history storage unit 4.

【0037】質問履歴格納手段4の記憶容量に余裕があ
る段階では学習した内容を記録し続け、ステップS4に
進み学習内容の削除は行なわない。そして記憶容量に余
裕がなくなったとき、ステップS3に進み学習を行なう
際に学習内容の古いものを削除してステップS4に進
む。
At the stage when the storage capacity of the question history storage means 4 has a sufficient capacity, the learned contents are continuously recorded, and the process proceeds to step S4 where the learned contents are not deleted. When the storage capacity is exhausted, the process proceeds to step S3, and when learning is performed, old learning contents are deleted and the process proceeds to step S4.

【0038】図7は質問履歴格納手段4中の学習内容が
検索結果の上位に現れた場合の再書き込み方法を示すフ
ローチャートである。学習内容が検索結果中の上位に現
れるということは、使用者にとってはその学習内容はま
だ重要なものであると考えられるため、新たに学習した
ものとして扱う。
FIG. 7 is a flow chart showing a rewriting method when the learning contents in the question history storage means 4 appear in the higher order of the retrieval results. It is considered that the learning content appears higher in the search results because the learning content is still important to the user, and is treated as newly learned.

【0039】ステップS11において検索結果に質問履
歴格納手段4の検索要求文が上位に現れた場合は、その
学習内容を新たに学習されたものとして同じ内容を質問
履歴格納手段4に記録する。ステップS12において質
問履歴格納手段4の容量に余裕がない場合は図6の場合
と同様にステップS13に進んで古い学習内容を削除す
る。
In step S11, when the search request sentence of the question history storage means 4 appears higher in the search result, the same content is recorded in the question history storage means 4 as the newly learned content. If there is not enough capacity in the question history storage unit 4 in step S12, the process proceeds to step S13 as in the case of FIG. 6 and old learning contents are deleted.

【0040】実際に学習条件が満たされているかどうか
探知する。この学習条件とは、使用者が検索結果から機
能名を選択する際、選択した機能名の順位があらかじめ
決められた順位より下であれば(10位と決められてい
れば11位以下に表示された機能名を選択した場合)学
習を行なうというものである。この学習条件を満たせば
質問履歴格納手段4に使用者が入力した検索要求文と検
索結果から選択した機能名のIDを書き込む。
Detect whether or not the learning condition is actually satisfied. The learning condition is that when the user selects a function name from the search result, if the rank of the selected function name is lower than a predetermined rank (if it is determined to be 10th, it is displayed below 11th rank). When the selected function name is selected) learning is performed. If this learning condition is satisfied, the ID of the function name selected from the search request sentence and the search result input by the user is written in the question history storage unit 4.

【0041】図8は、フィードバック機能のフローチャ
ートである。まず検索結果において、質問履歴格納手段
4に記録されている検索要求文が検索結果の1位に来て
いるかどうかを調べる(ステップS21)。1位に来て
いる場合は質問履歴格納手段4を参照して1位に出力さ
れた検索要求文に対応するIDを取り出す(ステップS
22)。
FIG. 8 is a flow chart of the feedback function. First, in the search result, it is checked whether or not the search request sentence recorded in the question history storage unit 4 comes first in the search result (step S21). If it is in the first place, the question history storage means 4 is referred to and the ID corresponding to the search request sentence output in the first place is taken out (step S).
22).

【0042】そしてIDで示される機能名の想定要求文
を検索要求として検索機能7に渡す。検索機能7では従
来と同様に検索を行ない検索結果を出力する。質問履歴
格納手段4に記録されている学習内容がフィードバック
前の検索結果の1位であった場合、入力された検索要求
文と学習されている過去の検索要求文の間の意味的な類
似度が大きいためであると考えられる。
Then, the assumed request sentence having the function name indicated by the ID is passed to the search function 7 as a search request. The search function 7 performs a search as in the conventional case and outputs the search result. When the learning content recorded in the question history storage unit 4 is the first place in the search result before feedback, the semantic similarity between the input search request sentence and the learned search request sentence in the past. Is considered to be large.

【0043】この場合、学習されている過去の検索要求
文は機能データベース8中の想定要求文との意味的類似
度が低いため、入力された検索要求文と2位以降に出力
される機能名との間の関連性は低いと考えられる。この
ような場合に上記によって1位に出力されている機能名
のIDを参照し、想定要求文を用いて再度検索を行なう
ことで、機能データベース8の中から使用者の要求によ
り近い機能を取り出すことができる。
In this case, since the learned past search request sentence has a low degree of semantic similarity to the assumed request sentence in the function database 8, the input search request sentence and the function name output after the second place The relationship between and is considered to be low. In such a case, by referring to the ID of the function name output to the first place by the above and performing a search again using the assumed request sentence, a function closer to the user's request is retrieved from the function database 8. be able to.

【0044】使用者から検索要求文が入力され検索が行
われる際、質問履歴格納手段4を参照する。当該質問履
歴格納手段4に記録されている学習内容から検索要求を
取り出し、想定要求文として扱う。機能名のIDはその
まま用いる。そして機能データベース8と質問履歴格納
手段4から読み出した内容を統合させて連想検索の検索
対象として扱えるようにする。
When a search request sentence is input by the user and a search is performed, the question history storage means 4 is referred to. A search request is extracted from the learning content recorded in the question history storage means 4 and treated as an assumed request sentence. The ID of the function name is used as it is. Then, the contents read from the function database 8 and the question history storage means 4 are integrated so that they can be handled as a search target of the associative search.

【0045】検索機能7においてキーワード検索を用い
る方法について述べている。検索要求文から取り出した
単語集合と各想定要求文から取り出した単語集合の類似
度を比較して類似度の順に検索結果に出力する。
The method of using the keyword search in the search function 7 is described. The similarity between the word set extracted from the search request sentence and the word set extracted from each assumed request sentence is compared and output to the search result in order of similarity.

【0046】図9は、検索機能7に連想検索を用いる場
合の図である。連想検索では、単語と単語の特徴を表す
特徴ベクトルを記録した単語ベクトル辞書13、単語ベ
クトル辞書13を参照して、入力された文の意味を表す
ベクトルを生成するベクトル生成機能12、ベクトル間
の内積をとり、ベクトル間の意味的な距離を評価するこ
とで、検索要求文に関連性の高い文を検索する連想検索
機能11とからなる。
FIG. 9 is a diagram when the associative search is used for the search function 7. In the associative search, a word vector dictionary 13 in which a feature vector representing a word and a feature of the word is recorded, a vector generation function 12 that generates a vector representing the meaning of an input sentence by referring to the word vector dictionary 13, The associative search function 11 searches a sentence highly relevant to the search request sentence by taking the inner product and evaluating the semantic distance between the vectors.

【0047】連想検索を行なう場合は、検索要求文と各
機能ごとにベクトルを作成し、連想検索機能11で検索
要求文ベクトルと機能名ベクトルの間で意味的な関連性
を評価する。
When performing an associative search, a vector is created for each search request sentence and each function, and the associative search function 11 evaluates the semantic relevance between the search request sentence vector and the function name vector.

【0048】以下に本発明で述べている、単語ベクトル
辞書13を用いて機能データベース8に記録されている
機能名を検索する検索機能7について述べる。例として
検索要求文「文章を真ん中に動かしたい」が入力された
場合について説明する。
The search function 7 for searching the function name recorded in the function database 8 using the word vector dictionary 13 described in the present invention will be described below. As an example, a case where the search request sentence “I want to move the text to the center” is input will be described.

【0049】まず単語ベクトル辞書13を参照し、検索
要求文に含まれる単語の特徴ベクトルを取り出す。単語
を取り出す基準は最長一致による。単語ベクトル辞書1
3に記録されている単語は名詞、動詞が大多数なので、
例文の場合は取り出される単語は「文章、真ん中、動
か」となる。ここで特徴ベクトルの示す概念を(文、対
象、位置、移動、挿入、拡大)とし、検索要求文から取
り出した単語の特徴ベクトルV(文章)、V(真ん
中)、V(動か)をそれぞれ V(文章) =(1、1、1、1、1、0) V(真ん中)=(0、0、1、1、0、0) V(動か) =(0、1、1、1、1、0) とする。検索要求文に含まれる単語のベクトルを全て加
え合わせることで検索要求文の特徴ベクトルを作成す
る。
First, the word vector dictionary 13 is referred to, and the feature vector of the word included in the search request sentence is extracted. The criteria for extracting words is by longest match. Word vector dictionary 1
Most of the words recorded in 3 are nouns and verbs, so
In the case of an example sentence, the extracted word is "sentence, middle, move". Here, the concept indicated by the feature vector is (sentence, target, position, movement, insertion, enlargement), and the feature vectors V (sentence), V (middle), and V (movement) of the word extracted from the search request sentence are respectively V (Sentence) = (1, 1, 1, 1, 1, 0) V (middle) = (0, 0, 1, 1, 0, 0) V (movement) = (0, 1, 1, 1, 1 , 0). A feature vector of the search request sentence is created by adding all the vectors of the words included in the search request sentence.

【0050】この例の場合、3つの特徴ベクトルの和V
rはVr=(1、2、3、3、2、0)となる。最後
に、ベクトルの大きさが10になるように正規化して検
索要求文ベクトルVrnを得る。例に示したベクトルの
場合のVrnは Vrn=(1.9、3.8、5.8、5.8、3.8、0)
となる。
In the case of this example, the sum V of the three feature vectors V
r becomes Vr = (1, 2, 3, 3, 2, 0). Finally, the search request sentence vector Vrn is obtained by normalizing the vector size to 10. Vrn in the case of the vector shown in the example is Vrn = (1.9, 3.8, 5.8, 5.8, 3.8, 0)
Becomes

【0051】次に機能データベース8を参照し、検索対
象になる機能名ベクトルを作成する。まず、検索要求文
の場合と同様に各想定要求文ごとに想定要求文ベクトル
を作成する。図3に示すように、機能データベース8は
複数の想定要求文が一つの機能名に対応する形になって
いる。そして各機能名に対応する想定要求文のベクトル
を加算し、機能データベース8に定められている各機能
名の機能名ベクトルを作成する。
Next, referring to the function database 8, a function name vector to be searched is created. First, as in the case of the search request sentence, an assumed request sentence vector is created for each assumed request sentence. As shown in FIG. 3, in the function database 8, a plurality of assumed request sentences correspond to one function name. Then, the vector of the assumed request sentence corresponding to each function name is added to create the function name vector of each function name defined in the function database 8.

【0052】そして検索要求文ベクトルと機能名ベクト
ルにより検索要求文と機能名の間の意味的な類似度を評
価する。先に示したように特徴ベクトルは単語や文と、
あらかじめ定めた概念との意味的な関連性を示すもので
あるため、二つの特徴ベクトルの間で共に0以外の値を
持つ要素が多い場合、二つの特徴ベクトルが示す単語、
文の間の意味的類似度は高いといえる。
Then, the semantic similarity between the search request sentence and the function name is evaluated by the search request sentence vector and the function name vector. As shown above, feature vectors are words and sentences,
Since there are many elements having values other than 0 between the two feature vectors, the word indicated by the two feature vectors indicates the semantic relationship with a predetermined concept.
It can be said that the degree of semantic similarity between sentences is high.

【0053】そこで、二つの特徴ベクトルの内積をと
り、その値により検索要求文と機能名の間の意味的な類
似度を評価する。使用者に検索結果を表示する際はこの
値の順に機能名を並べ、検索要求文に関連した機能とし
て表示する。
Therefore, the inner product of the two feature vectors is calculated, and the semantic similarity between the search request sentence and the function name is evaluated by the value of the inner product. When displaying the search result to the user, the function names are arranged in order of this value and displayed as the function related to the search request sentence.

【0054】[0054]

【発明の効果】本発明によれば、学習機能を実装するこ
とで内容の悪い検索結果を記録し、後にその時の検索要
求と類似した検索要求文が入力された場合に使用者が学
習時に正解と判断した機能名が出力されるようにした。
According to the present invention, a learning function is implemented to record a search result having a bad content, and if a search request sentence similar to the search request at that time is input later, the user can answer correctly during learning. The function name that was judged to be output.

【0055】また、本発明によれば、質問履歴格納手段
中の学習内容を適切な状態にする。すなわち、質問履歴
格納手段には内容が悪かった場合の結果を記録している
が、使用者が説明文に示されている内容について学習す
るようにすれば説明文を検索する必要がなくなり、学習
内容の効力は時間とともに小さくなる。そこで、使用者
の学習状態に合わせて不要な学習内容を削除する機能が
必要になる。不要な学習内容とは、学習されてから時間
が経ち、検索結果の上位にも現れないものである。その
ため学習内容を時間順に管理し、古くなったものを削除
することで重要な学習内容だけを残すことができる。
Further, according to the present invention, the learning content in the question history storage means is put in an appropriate state. That is, although the result when the content is bad is recorded in the question history storage means, if the user learns about the content shown in the description, there is no need to search for the description, The content becomes less effective over time. Therefore, it is necessary to have a function of deleting unnecessary learning contents according to the learning state of the user. Unnecessary learning contents are those that do not appear in the top of the search results as time elapses after learning. Therefore, it is possible to keep only the important learning contents by managing the learning contents in chronological order and deleting old ones.

【0056】また、本発明によれば、質問履歴格納手段
中の検索要求文が入力された検索要求文に最も類似して
いるとされた場合のフィードバック機能に関するもので
ある。すなわち、質問履歴格納手段中の検索要求文が検
索結果の1位に出力された場合、対応する機能名のID
情報をもとに機能データベースを参照し、ID情報に示
される項目の内容から検索要求文を作成することで、よ
り適切な機能名を出力させることができる。
Further, according to the present invention, the present invention relates to a feedback function when the search request text in the question history storage means is the most similar to the input search request text. That is, when the search request sentence in the question history storage means is output to the first place in the search results, the ID of the corresponding function name
A more appropriate function name can be output by referring to the function database based on the information and creating a search request sentence from the content of the item indicated by the ID information.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の学習機能付き検索装置の概要図であ
る。
FIG. 1 is a schematic diagram of a search device with a learning function of the present invention.

【図2】単語ベクトル辞書の内部データ構造を示す図で
ある。
FIG. 2 is a diagram showing an internal data structure of a word vector dictionary.

【図3】機能データベースの内部データ構造を示す図で
ある。
FIG. 3 is a diagram showing an internal data structure of a function database.

【図4】質問履歴格納手段の内部データ構造を示す図で
ある。
FIG. 4 is a diagram showing an internal data structure of a question history storage unit.

【図5】質問履歴格納手段における、学習内容の管理方
法を示す概略図である。
FIG. 5 is a schematic diagram showing a learning content management method in the question history storage means.

【図6】質問履歴格納手段における、学習時のデータ管
理のフローチャートである。
FIG. 6 is a flowchart of data management during learning in the question history storage means.

【図7】質問履歴格納手段における、学習内容が結果の
上位に来たときのデータ管理のフローチャートである。
FIG. 7 is a flow chart of data management in the question history storage means when the learning content is ranked higher in the results.

【図8】フィードバック機能のフローチャートである。FIG. 8 is a flowchart of a feedback function.

【図9】検索機能の構成を示す図である。FIG. 9 is a diagram showing a configuration of a search function.

【符号の説明】[Explanation of symbols]

1 入力手段 2 出力手段 3 制御手段 4 質問履歴格納手段 5 学習装置 6 データベース作成機能(データベース作成手段) 7 検索機能(検索手段) 8 機能データベース 1 Input means 2 output means 3 control means 4 Question history storage means 5 learning devices 6 Database creation function (database creation means) 7 Search function (search method) 8 function database

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−54564(JP,A) 爰川知宏ほか,FISHの利用履歴分 析に基づくグループ情報共有支援の検 討,情報処理学会研究報告,日本,社団 法人情報処理学会,1996年 3月14日, 第96巻 第26号,第31頁〜第36頁(96− GW−16−6) (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-4-54564 (JP, A) Tomohiro Aikawa et al., Study on group information sharing support based on FISH usage history analysis, IPSJ research report, Japan , Information Processing Society of Japan, March 14, 1996, Volume 96, No. 26, pp. 31 to 36 (96-GW-16-6) (58) Fields investigated (Int.Cl. 7 , DB name) G06F 17/30 JISST file (JOIS)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 検索要求文を入力する入力手段と、 検索結果を出力する出力手段と、 検索要求文と使用者が正解とみなした機能名のID情報
を記録する質問履歴格納手段と、 機能の名称を示す機能名と、該機能名を示すID情報
と、所望の機能について尋ねる検索要求文の例としての
想定要求文と、前記検索結果において表示すべき機能名
の説明文とを対応させて保持する機能データベースと、 前記検索結果において使用者が正解とみなした機能名の
出力順位が低い場合に、当該検索要求文と使用者が正解
とみなした機能名のID情報を質問履歴格納手段に書き
込んで学習を行なう学習装置と、 前記質問履歴格納手段と前記機能データベースの双方を
参照して入力された検索要求文から機能名を検索する検
索手段と、を有することを特徴とする学習機能付き検索
装置。
1. An input unit for inputting a search request sentence, an output unit for outputting a search result, a question history storage unit for recording the search request sentence and ID information of a function name that the user regarded as a correct answer, and a function. The function name indicating the name of the function, the ID information indicating the function name, the assumed request sentence as an example of the search request sentence inquiring about the desired function, and the explanation sentence of the function name to be displayed in the search result are associated with each other. And a function database held by the user, and when the output rank of the function name that the user regarded as the correct answer in the search result is low, the search history and the ID information of the function name that the user regarded as the correct answer are stored in the question history storage means. A learning device for performing learning by writing to the question history storage device; and a search device for searching for a function name from a search request sentence input with reference to both the question history storage device and the function database. That learning function with a search device.
【請求項2】 前記質問履歴格納手段は、使用者の学習
状態の変化により不要になった学習内容を消去すること
を特徴とする請求項1記載の学習機能付き検索装置。
2. The retrieval device with a learning function according to claim 1, wherein the question history storage means erases learning contents that are no longer needed due to a change in the learning state of the user.
【請求項3】 前記検索手段が検索を行なった結果、前
記質問履歴格納手段に記録されている検索要求文と入力
された検索要求文とが最も類似している場合に、学習さ
れている機能名のID情報から前記機能データベースを
参照し、ID情報に対応する想定要求文に基づいて再び
検索を行なうことを特徴とする請求項1記載の学習機能
付き検索装置。
3. The function learned when the search request text recorded in the question history storage means and the input search request text are the most similar as a result of the search by the search means. 2. The search device with a learning function according to claim 1, wherein the function database is referenced from the ID information of the name, and the search is performed again based on the assumed request sentence corresponding to the ID information.
【請求項4】 前記検索手段は、検索要求文のキーワー
ドと想定要求文中のキーワードの一致度に基づいて検索
を行なうことを特徴とする請求項1記載の学習機能付き
検索装置。
4. The search device with a learning function according to claim 1, wherein the search means performs the search based on a degree of coincidence between the keyword of the search request sentence and the keyword of the assumed request sentence.
【請求項5】 前記検索手段は、検索要求文の特徴ベク
トルと想定要求文の特徴ベクトルの内積結果に基づいて
検索を行なうことを特徴とする請求項1記載の学習機能
付き検索装置。
5. The search device with a learning function according to claim 1, wherein the search means performs the search based on an inner product result of the feature vector of the search request sentence and the feature vector of the assumed request sentence.
JP14241398A 1998-05-25 1998-05-25 Search device with learning function Expired - Fee Related JP3495912B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14241398A JP3495912B2 (en) 1998-05-25 1998-05-25 Search device with learning function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14241398A JP3495912B2 (en) 1998-05-25 1998-05-25 Search device with learning function

Publications (2)

Publication Number Publication Date
JPH11338864A JPH11338864A (en) 1999-12-10
JP3495912B2 true JP3495912B2 (en) 2004-02-09

Family

ID=15314766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14241398A Expired - Fee Related JP3495912B2 (en) 1998-05-25 1998-05-25 Search device with learning function

Country Status (1)

Country Link
JP (1) JP3495912B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269545B2 (en) * 2001-03-30 2007-09-11 Nec Laboratories America, Inc. Method for retrieving answers from an information retrieval system
US7231375B2 (en) 2003-10-10 2007-06-12 Microsoft Corporation Computer aided query to task mapping
JP5847290B2 (en) * 2012-03-13 2016-01-20 三菱電機株式会社 Document search apparatus and document search method
JP7126843B2 (en) * 2018-03-29 2022-08-29 エヌ・ティ・ティ・データ先端技術株式会社 Learning target extraction device, learning target extraction method, and learning target extraction program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2885482B2 (en) * 1990-06-21 1999-04-26 日本電信電話株式会社 Weight-based text-based search device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
爰川知宏ほか,FISHの利用履歴分析に基づくグループ情報共有支援の検討,情報処理学会研究報告,日本,社団法人情報処理学会,1996年 3月14日,第96巻 第26号,第31頁〜第36頁(96−GW−16−6)

Also Published As

Publication number Publication date
JPH11338864A (en) 1999-12-10

Similar Documents

Publication Publication Date Title
US9064005B2 (en) System and method of finding documents related to other documents and of finding related words in response to a query to refine a search
US7283992B2 (en) Media agent to suggest contextually related media content
US7089226B1 (en) System, representation, and method providing multilevel information retrieval with clarification dialog
US8037068B2 (en) Searching through content which is accessible through web-based forms
Nasraoui et al. A web usage mining framework for mining evolving user profiles in dynamic web sites
KR101027864B1 (en) Machine-learned approach to determining document relevance for search over large electronic collections of documents
US5168565A (en) Document retrieval system
Chen et al. User intention modeling in web applications using data mining
JP5492187B2 (en) Search result ranking using edit distance and document information
CN1728142B (en) Phrase identification method and device in an information retrieval system
US20020194158A1 (en) System and method for context-dependent probabilistic modeling of words and documents
JP7252914B2 (en) Method, apparatus, apparatus and medium for providing search suggestions
US20070150473A1 (en) Search By Document Type And Relevance
BRPI0203479B1 (en) System for enriching document content
US10747759B2 (en) System and method for conducting a textual data search
US6446066B1 (en) Method and apparatus using run length encoding to evaluate a database
KR20040013097A (en) Category based, extensible and interactive system for document retrieval
US8533150B2 (en) Search index generation apparatus
CN115422372A (en) Knowledge graph construction method and system based on software test
WO2009054611A1 (en) System and method for managing information map
JP3495912B2 (en) Search device with learning function
CN111859066A (en) Query recommendation method and device for operation and maintenance work order
Boddu et al. Knowledge discovery and retrieval on World Wide Web using web structure mining
US8875007B2 (en) Creating and modifying an image wiki page
JP3856388B2 (en) Similarity calculation method, similarity calculation program, and computer-readable recording medium recording the similarity calculation program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081121

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101121

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees