JPH02224068A - Information retrieving system - Google Patents

Information retrieving system

Info

Publication number
JPH02224068A
JPH02224068A JP1042940A JP4294089A JPH02224068A JP H02224068 A JPH02224068 A JP H02224068A JP 1042940 A JP1042940 A JP 1042940A JP 4294089 A JP4294089 A JP 4294089A JP H02224068 A JPH02224068 A JP H02224068A
Authority
JP
Japan
Prior art keywords
keywords
neural network
search
keyword
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1042940A
Other languages
Japanese (ja)
Inventor
Shigeru Koyanagi
滋 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1042940A priority Critical patent/JPH02224068A/en
Publication of JPH02224068A publication Critical patent/JPH02224068A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To attain the retrieval based on a correlation between key words and to realize the retrieval of a high function by utilizing a neural network. CONSTITUTION:As for data to be stored in a data base, a key work thereto is stored in a neural network 12 together with a feature vector transformed by a key word correlation table 10. That is, the feature vector of each stored data is held as a weight vector of a neurone corresponding to the stored data. Also, at the time of retrieval, with respect to a key work to be retrieved, a retrieval vector transformed by using the key word correlation table 10 is used, and the similarity of this vector and the feature vector of each stored data is derived by the neural network 12. In such a manner, the retrieval can utilize a function using the correlation between the key words more than mere key word matching, and a retrieval function which abounds in flexibility can be realized.

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、ニューラルネットワークを用いて情報検索を
行なうための情報検索システムに関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to an information retrieval system for performing information retrieval using a neural network.

(従来の技術) 最近、人間の右脳に似た情報処理能力を実現する方法と
してニューラルネットワークが注目されている。ニュー
ラルネットワークでは神経細胞をモデルとし、入力信号
の重みつき総和をとり、これにしきい値作用と非線型関
数を作用させることにより出力を生成するニューロンが
多数個結合されたものである。
(Prior Art) Neural networks have recently attracted attention as a method for realizing information processing capabilities similar to the human right brain. A neural network uses a neuron as a model, takes a weighted summation of input signals, and applies a threshold effect and a nonlinear function to this to generate an output by connecting a large number of neurons.

ニューラルネットワークを用いて情報検索システムを構
築できれば、人間の右脳に似た連想、[推等の機能が利
用でき、従来の情報検索システムを高度化することが期
待される。しかるに、現状では、単純な連想メモリが実
現され“〔いるだけであり、情報検索システムとして利
用できるレベルには到達していない。
If we can construct an information retrieval system using neural networks, we can utilize functions such as association and inference similar to those of the human right brain, and it is expected to improve the sophistication of conventional information retrieval systems. However, at present, only simple associative memories have been realized, and have not yet reached the level where they can be used as information retrieval systems.

従来の情報栓穴システムでは、検索手段としてキーワー
ドの論理式による表現を用いている。またキーワードを
体系化したシソーラスを備λ1、与えられたキ・−ワー
ドの下位概念を自動的に加え、で検索することも可能で
ある。しかるに、ユーザの検索したい内容を人間の右脳
機能に相当するキーワードの論理式のみで表現するのは
困難であり、またこれを支援するための適切なシソーラ
スを構築するのは困難である、 (発明が解決しようどする課題) 以」二のように従来の情報検索システムではキーワード
の論理式やシソーラスを用いた検索手段が提供されでい
るが、より柔軟な検索な可能とするために、右脳的な検
索手段をとり入れた情報検索システムの実現が望まれて
いる。
Conventional information plug-in systems use expressions of keywords using logical formulas as a search means. In addition, if a thesaurus in which keywords are systematized is provided, it is also possible to automatically add sub-concepts of a given keyword and perform a search. However, it is difficult to express the content a user wants to search using only logical expressions of keywords that correspond to the human right brain function, and it is also difficult to construct an appropriate thesaurus to support this. As mentioned above, conventional information retrieval systems provide search methods using logical formulas and thesauri of keywords, but in order to enable more flexible searches, we have developed a right-brain approach. It is desired to realize an information retrieval system that incorporates various search methods.

本発明は、上記の課題を実現するためになされたもので
あり、ニューラルネットワークを用いて情仲検索システ
ムにおける柔軟な検索手段を提案することを目的として
いる。
The present invention has been made to achieve the above-mentioned problems, and its purpose is to propose a flexible search means in a love relationship search system using a neural network.

〔発明の構成〕[Structure of the invention]

(課題を解決するための手段) 本発明では、情報検索システムで用いる全゛Cのキーワ
・−ドについて、その相関関係をあらかじめ計算し゛C
キーワード相関テーブルを作成する。
(Means for Solving the Problems) In the present invention, the correlation between all the keywords used in the information retrieval system is calculated in advance.
Create a keyword correlation table.

また、ニューラルネットワークは、個々のキーワードを
表わすニューロンから構成される層と、個々の格納デー
タを表わすニューロンから構成される層の2層から成る
。この2層間は完全結合され机 各ニューロンは入力ベクトルと重みベクトルとの積和演
算(内積)を行ない、その結果がしきい値を越えたもの
が発火する。
Further, the neural network consists of two layers: a layer composed of neurons representing individual keywords, and a layer composed of neurons representing individual stored data. These two layers are completely connected, and each neuron performs a product-sum operation (inner product) between the input vector and the weight vector, and those whose results exceed a threshold fire.

C作用) 本発明によれば、データベース内に格納さ、t17るデ
ータは、それに対応するキーワードをキーワード相関チ
ー・プルにより変換された特徴ベクトルと共に、ニュー
ラルネット・ワ・・−り内に格納される。
C) According to the present invention, the data stored in the database at t17 is stored in the neural network along with the feature vector obtained by converting the keyword corresponding to the keyword by the keyword correlation coefficient. Ru.

すなわち、個々の格納データの特徴ベグ1ヘルは、格納
データに対応するニフ、・−ロンの重みベタ1−ルとし
て保持される。
That is, the characteristic value of each stored data is held as the weight value of the nif, . . . , corresponding to the stored data.

また、検索時に−は、検索したいキーワードをキーワー
ド相関デープルを用いて変換さj′シた検索バク1−ル
を用い、これと各格納データの特徴ベクトルとの類似度
をニューラルネットワークにより求める。
Furthermore, during a search, a search bar is used in which the keyword to be searched is converted using a keyword correlation table, and the degree of similarity between this and the feature vector of each stored data is determined by a neural network.

これに、上り、検索は−9なるキーワードマッチング以
上lこ、キーワード間の相関関係を用いた機能を利用す
ることがでさ、柔軟性に富んだ検索機能が実現できる。
In addition, for uplink searches, a function using correlation between keywords beyond -9 keyword matching can be utilized, and a highly flexible search function can be realized.

(実施例) 以下、本発明の詳細を一実施例により説明す′る。(Example) The details of the present invention will be explained below using an example.

第1図は本発明の一実施例のシステム構成を表わす。FIG. 1 shows the system configuration of one embodiment of the present invention.

ここでは文献検索システムを例にとり説明′″IJ乙。Here, we will explain using the literature search system as an example.

各文献毎にあらかじめキー・・「1−ドが付与されてい
るどする。このキーワ・−ドの集合について各ンの相関
関係登キーワード相関テ・−プルlOに格納する。
A key code is assigned in advance to each document. This set of keywords is stored in each correlation table.

キーワードを全部でA−Gの7種類としたときのキーワ
ード相関テーブル10の一例を第2図に示す。
FIG. 2 shows an example of the keyword correlation table 10 when there are seven types of keywords A to G in total.

キーワード相関テーブルの作り方は各種の方法が考えら
れるが5ここでは、文献内のキーワードの出現頻度に基
づき、次のように定義する。テーブルのj、行j列をK
j、jとすると IC1,+ =  F (tnj)/ F b)但し、
F(i)はキーワードiの出現回数+ F (tn、t
)はキー・ワードiとjが同−文献内に同時に出現する
回数を表わす。
Various methods can be used to create a keyword correlation table.5 Here, keywords are defined as follows based on the frequency of appearance of keywords in documents. Table j, row j column is K
j, j, IC1,+ = F (tnj)/F b) However,
F(i) is the number of occurrences of keyword i + F (tn, t
) represents the number of times key words i and j appear simultaneously in the same document.

このキーワード相関テーブルを用いて、文献デー・−夕
をニュ・−ラルネッ[・ワークに格納する方法について
述べる。格納用特徴ベクトル生成部11は。
A method for storing literature data in a neural network using this keyword correlation table will be described. The storage feature vector generation unit 11 is.

各文献に付与されたキーワードより、キーワード相関テ
ーブル10を用いてニューラルネツ[・ワーク12の重
みを設定する。ニューラルネットワークの構成図撃力3
図に示す。第3図に示すようにニューラルネッI−ワー
クは各キー・ワードを表わす層と、各文献を表わすM間
の完全結合網とする。
Based on the keywords assigned to each document, the weights of the neural network work 12 are set using the keyword correlation table 10. Neural network configuration diagram Impact 3
As shown in the figure. As shown in FIG. 3, the neural network I-network is a fully connected network between layers representing each key word and M representing each document.

次に重みの設定法について説明する。ここで文献P1は
キーワードA、Bをもつとする。このとき、第2図のキ
ーワード相関テーブルよりA行とB行の内容を参照する
Next, a method for setting weights will be explained. Here, document P1 is assumed to have keywords A and B. At this time, the contents of rows A and B are referred to from the keyword correlation table of FIG.

A= (10,1000,10,90,8)B= (0
,2100,40,30,30)文献P]、の特徴バク
1−ルP1は八とBの平均をとることにより生成する。
A= (10,1000,10,90,8)B= (0
, 2100, 40, 30, 30) Literature P], the feature back P1 is generated by taking the average of 8 and B.

但し、いずれかの要素が1のときは平均をとらずに結果
は1とする。これによりPlは P1=(1100,20゜20.60.4)となる、同
様に文献P2がキーワードC,Eをもつとすると P2=(0゜10.1.  ]、0.4 1 0 0,
1)文献P3がキーワードF、GをもつとするとP3=
 (0,60,100,10,211)となる。このよ
うにして、格納する文献の特徴バク1ヘルPi、P2.
P3が生成できる。ここで、文献P1に対応するニュー
ロンの重みは特徴ベクトルPLに基づいて第4図に示す
ように設定する。
However, if any element is 1, the average is not taken and the result is 1. As a result, Pl becomes P1 = (1100, 20° 20.60.4). Similarly, if document P2 has keywords C and E, P2 = (0° 10.1. ], 0.4 1 0 0 ,
1) If document P3 has keywords F and G, then P3=
(0,60,100,10,211). In this way, the characteristics of the documents to be stored are Baku 1 Hell Pi, P 2 .
P3 can be generated. Here, the weight of the neuron corresponding to document P1 is set as shown in FIG. 4 based on the feature vector PL.

すなわち、各文献に対応するニューロンは特徴ベクトル
の値を重みとするものとする。各ニューロンP、の演算
は入力ベクトルを(とするとf (Pi・に−θ) で表わされる。但し、θはしきい値、fは非線型関数と
する。
That is, it is assumed that the neuron corresponding to each document uses the value of the feature vector as a weight. The operation of each neuron P is expressed as f (Pi·to−θ), where θ is a threshold value and f is a nonlinear function.

このようにしてニューラルネタ1−ワークを構成するこ
とができる。次に検索について述べる。
In this way, a neural network 1-work can be constructed. Next, let's talk about searching.

今、キーワードAをもつ文献について検索したいものと
する。第1図の検索用特徴ベタ1−ル生成部13により
、検索要求に対応する特徴ベクトルが生成される。ここ
ではキーワードAに対応する行をキーワード相関テーブ
ル10より参照することにより、検索用特徴ベクトルq
は、第2図のキーワード相関テーブルを用いると (1= (10,1000,10,90,8)となる。
Now, assume that you want to search for documents with keyword A. The search feature vector generation unit 13 shown in FIG. 1 generates a feature vector corresponding to a search request. Here, by referring to the row corresponding to keyword A from the keyword correlation table 10, the search feature vector q
Using the keyword correlation table shown in FIG. 2, (1=(10,1000,10,90,8)).

この検索用特徴ベクトルをニューラルネットワーク12
の入力とすることにより検索が行なわれる。ここで各ニ
ューロンの演算のしきい値θ=1.非線型関数fを f(1)=1:x≧Oのとき =O:x<Oのとき とすると、PL、P2.P3に対応するニューロンは次
の演算を行なう Pl:f(PL・q−1) =J’([1100,20,20,60,4)・〔]0
11000゜10.90.8)−1)=f(1+0.i
・l−0,02+0.54+0.32−1)=、j’ 
(0,98)= 1P2:f(P2・1−1) =、)’(CO,10,110,4100,1)・(1
0,1000,10,90,8)−1)=f (−0,
71,)= O P3:f(P3・q−1) =f([0,(i 0.100.10,21 1)・(
10,1000,10,90,8)−1)=f(1゜3
3)=1 以上により、キーワードAの検索要求に対し、文献P1
とP3に対応するニューロンが発火する。
This search feature vector is used by the neural network 12.
A search is performed by inputting . Here, the calculation threshold θ of each neuron is 1. If the nonlinear function f is f(1)=1: when x≧O=O: when x<O, then PL, P2. The neuron corresponding to P3 performs the following operation Pl:f(PL・q−1) = J′([1100, 20, 20, 60, 4)・[]0
11000°10.90.8)-1)=f(1+0.i
・l-0,02+0.54+0.32-1)=,j'
(0,98)=1P2:f(P2・1-1)=, )'(CO,10,110,4100,1)・(1
0,1000,10,90,8)-1)=f (-0,
71,)=O P3:f(P3・q−1)=f([0,(i 0.100.10,21 1)・(
10,1000,10,90,8)-1)=f(1゜3
3) = 1 As described above, in response to a search request for keyword A, document P1
and the neuron corresponding to P3 fires.

ここで文献P1はキーワードAとBをもち、文献P3は
キーワードFとGをもつ。明らかに正しいキーワードを
含むものは正しく検索され、またキーワード八をもたな
い文献でもそれと関連の深いキーワードをもつならば検
索することができる。
Here, document P1 has keywords A and B, and document P3 has keywords F and G. Documents that clearly contain the correct keywords can be searched correctly, and even documents that do not have the keyword 8 can be searched if they have keywords closely related to them.

このように、ニューラルネットワークを利用することに
より、個々のキーワードの照合だけでなく、与えられた
キーワード全体の中から判断することができるため、柔
軟な検索が可能となる。
In this way, by using a neural network, it is possible not only to match individual keywords, but also to make judgments from among the entire set of given keywords, which enables flexible searches.

なお5本発明はニューラルネタ1−ワークを利用しなく
ても通常の計算機上で同様の処理を行なうことにより同
じ効果が得られることは明らかである。
It is clear that in the present invention, the same effect can be obtained by performing similar processing on an ordinary computer without using a neural network.

〔発明の効果〕〔Effect of the invention〕

以上に述べたように、本発明によれば情報検索システム
においてニューラルネットワーク殻利用することにより
、単なるキーワードの照合だもづでなく、キーワー・ド
間の相関関係に基づいた検索が可能どなるため5従来よ
りも高機能の検索を実現することができる。
As described above, according to the present invention, by using a neural network shell in an information retrieval system, it becomes possible to perform a search based on the correlation between keywords, rather than simply matching or matching keywords. It is possible to achieve a more sophisticated search than before.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例のシステム構成を表わす図、
第2図はキーワード相関テーブルの内容を表わす図、第
3図はニューラルネットワークの構成図、第4図は文献
P1に対応するニューロンの重みを表わす図である。 10・・・キーワード相関テーブル 11・・・格納用特徴ベクトル生成部 12・・・ニューラルネットワーク 13・・・検索用特徴ベクトル生成部 代理人 弁理士 則 近 憲 佑 同  松山光之
FIG. 1 is a diagram showing a system configuration of an embodiment of the present invention;
FIG. 2 is a diagram showing the contents of the keyword correlation table, FIG. 3 is a diagram showing the configuration of the neural network, and FIG. 4 is a diagram showing the weights of neurons corresponding to document P1. 10...Keyword correlation table 11...Storage feature vector generation section 12...Neural network 13...Search feature vector generation section Agent Patent attorney Noriyuki Chika Yudo Mitsuyuki Matsuyama

Claims (2)

【特許請求の範囲】[Claims] (1)キーワードの付与されたデータの検索を行なう情
報検索システムにおいて、キーワード間の関連を表わす
キーワード相関テーブルを備え、データを格納するとき
は付与されたキーワードをキーワード相関テーブルを用
いて変換して得られた特徴ベクトルをデータに付与し、
検索するときは検索用のキーワードをキーワード相関テ
ーブルを用いて変換して得られた特徴ベクトルを用いて
検索を行なうことを特徴とする情報検索システム。
(1) An information retrieval system that searches data to which keywords are attached is equipped with a keyword correlation table that represents the relationship between keywords, and when storing data, converts the assigned keywords using the keyword correlation table. Add the obtained feature vector to the data,
An information retrieval system characterized in that when performing a search, a feature vector obtained by converting a search keyword using a keyword correlation table is used to perform the search.
(2)キーワードの付与されたデータの検索を行なう情
報検索システムにおいて、キーワード間の関連を表わす
キーワード相関テーブルと、二層から成るニューラルネ
ットワークとを備え、データを格納するときは付与され
たキーワードをキーワード相関テーブルを用いて変換し
て得られた特徴ベクトルをニューラルネットの結合係数
として格納し、検索するときは検索用のキーワードをキ
ーワード相関テーブルを用いて変換して得られた特徴ベ
クトルをニューラルネットに入力することにより検索を
行なうことを特徴とする情報検索システム。
(2) An information retrieval system that searches data to which keywords have been assigned, which is equipped with a keyword correlation table that represents the relationship between keywords and a neural network consisting of two layers, and when storing data, it uses the keywords assigned to it. The feature vector obtained by converting using the keyword correlation table is stored as a neural network connection coefficient, and when searching, the feature vector obtained by converting the search keyword using the keyword correlation table is stored in the neural network. An information retrieval system characterized in that a search is performed by inputting.
JP1042940A 1989-02-27 1989-02-27 Information retrieving system Pending JPH02224068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1042940A JPH02224068A (en) 1989-02-27 1989-02-27 Information retrieving system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1042940A JPH02224068A (en) 1989-02-27 1989-02-27 Information retrieving system

Publications (1)

Publication Number Publication Date
JPH02224068A true JPH02224068A (en) 1990-09-06

Family

ID=12650011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1042940A Pending JPH02224068A (en) 1989-02-27 1989-02-27 Information retrieving system

Country Status (1)

Country Link
JP (1) JPH02224068A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765021A (en) * 1992-02-21 1995-03-10 Mitsubishi Electric Corp Information retrieving device
JPH07129593A (en) * 1993-09-08 1995-05-19 Toshiba Corp Text selecting device
JPH07152771A (en) * 1993-11-30 1995-06-16 Toshiba Corp User's information managing device, information filter, information sorting device, information reproducing device, information retrieving device, and kana/kanji conversion device
JPH07334516A (en) * 1994-06-03 1995-12-22 Sharp Corp Information retrieval device
JPH0954780A (en) * 1995-08-10 1997-02-25 Nec Corp Learning device and method therefor
JPH10198682A (en) * 1996-12-28 1998-07-31 Nec Corp Database retrieving device and database registering device
JPH10240762A (en) * 1997-02-28 1998-09-11 Matsushita Electric Ind Co Ltd Information filter device and data base re-constructing device and information filtering method and initialization method
JPH11312115A (en) * 1999-03-19 1999-11-09 Nec Corp Database registering device
JP2000510628A (en) * 1997-03-21 2000-08-15 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン Apparatus and method for optimizing the performance of computer tasks using multiple intelligent agents with varying degrees of domain knowledge
JP2000517084A (en) * 1997-03-21 2000-12-19 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン Apparatus and method for optimizing the performance of computer tasks using intelligent agents with multiple program modules having varying degrees of domain knowledge
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
CN102402561A (en) * 2010-09-19 2012-04-04 中国移动通信集团四川有限公司 Searching method and device
JP2012512465A (en) * 2008-12-12 2012-05-31 アティジオ リミテッド ライアビリティ カンパニー Providing recommendations using judgment information about the area of interest

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765021A (en) * 1992-02-21 1995-03-10 Mitsubishi Electric Corp Information retrieving device
JPH07129593A (en) * 1993-09-08 1995-05-19 Toshiba Corp Text selecting device
JPH07152771A (en) * 1993-11-30 1995-06-16 Toshiba Corp User's information managing device, information filter, information sorting device, information reproducing device, information retrieving device, and kana/kanji conversion device
JPH07334516A (en) * 1994-06-03 1995-12-22 Sharp Corp Information retrieval device
JPH0954780A (en) * 1995-08-10 1997-02-25 Nec Corp Learning device and method therefor
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
JPH10198682A (en) * 1996-12-28 1998-07-31 Nec Corp Database retrieving device and database registering device
JPH10240762A (en) * 1997-02-28 1998-09-11 Matsushita Electric Ind Co Ltd Information filter device and data base re-constructing device and information filtering method and initialization method
JP2000510628A (en) * 1997-03-21 2000-08-15 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン Apparatus and method for optimizing the performance of computer tasks using multiple intelligent agents with varying degrees of domain knowledge
JP2000517084A (en) * 1997-03-21 2000-12-19 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン Apparatus and method for optimizing the performance of computer tasks using intelligent agents with multiple program modules having varying degrees of domain knowledge
US7386522B1 (en) 1997-03-21 2008-06-10 International Business Machines Corporation Optimizing the performance of computer tasks using intelligent agent with multiple program modules having varied degrees of domain knowledge
JPH11312115A (en) * 1999-03-19 1999-11-09 Nec Corp Database registering device
JP2012512465A (en) * 2008-12-12 2012-05-31 アティジオ リミテッド ライアビリティ カンパニー Providing recommendations using judgment information about the area of interest
CN102402561A (en) * 2010-09-19 2012-04-04 中国移动通信集团四川有限公司 Searching method and device

Similar Documents

Publication Publication Date Title
Singh et al. Fuzzy logic hybrid model with semantic filtering approach for pseudo relevance feedback-based query expansion
JP3195752B2 (en) Search device
JPH02224068A (en) Information retrieving system
Xu Orthogonal polynomials for a family of product weight functions on the spheres
CN105378763A (en) Inferring entity attribute values
CN108628935A (en) A kind of answering method based on end-to-end memory network
Jakšić et al. Ergodic properties of classical dissipative systems I
Brokos et al. Aueb at bioasq 6: Document and snippet retrieval
Doan et al. Profile-based object matching for information integration
Ma et al. Chain-of-skills: A configurable model for open-domain question answering
Huang et al. Mvp-tuning: Multi-view knowledge retrieval with prompt tuning for commonsense reasoning
Lin et al. BERT-SMAP: Paying attention to Essential Terms in passage ranking beyond BERT
Witter et al. Downdating the latent semantic indexing model for conceptual information retrieval
Bachrach et al. An attention mechanism for neural answer selection using a combined global and local view
Guan et al. Generating coherent narratives by learning dynamic and discrete entity states with a contrastive framework
Gallant Orthogonal Matrices for MBAT Vector Symbolic Architectures, and a" Soft" VSA Representation for JSON
CN114385901A (en) Method and system for recommending dissociative abnormal image attention of system
Salton A note about information science research
Syu et al. A neural network model for information retrieval using latent semantic indexing
JP2001101139A (en) Information processor
Akl PSYCHIC: A Neuro-Symbolic Framework for Knowledge Graph Question-Answering Grounding
Cherkassky et al. Fault-tolerant database using distributed associative memories
Shi et al. Towards Better Word Importance Ranking in Textual Adversarial Attacks
Nakkouzi et al. Query formulation for handling negation in information retrieval systems
Yang et al. Sequential attention with keyword mask model for community-based question answering