JPH05204975A - 情報フィルタリング装置及びそのフィルタリング方法 - Google Patents

情報フィルタリング装置及びそのフィルタリング方法

Info

Publication number
JPH05204975A
JPH05204975A JP4014749A JP1474992A JPH05204975A JP H05204975 A JPH05204975 A JP H05204975A JP 4014749 A JP4014749 A JP 4014749A JP 1474992 A JP1474992 A JP 1474992A JP H05204975 A JPH05204975 A JP H05204975A
Authority
JP
Japan
Prior art keywords
information
negative
learning
positive
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4014749A
Other languages
English (en)
Inventor
Akio Komatsu
昭男 小松
Masahiro Abe
正博 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4014749A priority Critical patent/JPH05204975A/ja
Publication of JPH05204975A publication Critical patent/JPH05204975A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【目的】例示された検索したい情報や検索する必要の無
い情報を参照して情報をフィルタリングし、その結果を
学習する装置、並びに、情報の構成要素が共通している
度合いを基準にして情報フィルタリングする方法を提供
する。 【構成】例示された検索したい情報を格納する肯定例D
B21と、検索する必要のないと例示された情報を格納
する否定例DB22を設け、また、学習機構として、検
索結果に基づいて肯定例DBと否定例DBとを更新す
る。更に、情報の構成要素のn字組セットの共通する割
合を情報の一致度と見なしてフィルタリングする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、文献検索や特許検索等
のような情報のフィルタリングを行う装置、及び、その
フィルタリング方法に関する。
【0002】
【従来の技術】従来の特許検索等の情報フィルタリング
装置では、特開平2−245971号公報に記載のよう
に、キーワード、又は、キーワードの組で定義した論理
式を基準にして情報をフィルタリングしていた。このた
め、キーワードが正しく一致しない場合には、検索漏れ
等が生じ、希望した情報が得られなくなってしまう。例
えば、「音声認識装置」と言うキーワードでは、「音声
等の時系列情報を認識する装置」に関する情報は検索出
来ない。
【0003】
【発明が解決しようとする課題】上記従来技術は、キー
ワードを基準にして情報をフィルタリングしているた
め、多様に表現される情報から該当するキーワードを正
確に検出することが出来ず、結果として、情報を適切に
フィルタリング出来ないと言う問題があった。更に、検
索結果を逐次フィードバックして検索条件を更新する学
習機構が不十分なため、知的な情報フィルタリングを実
現することが出来なかった。
【0004】本発明の目的は、検索したい情報や検索す
る必要の無い情報の具体的な例を参照して情報をフィル
タリングし、そのフィルタリング結果を学習する装置、
並びに、情報の構成要素が共通している度合いを基準に
して情報をフィルタリングする方法を提供することにあ
る。
【0005】
【課題を解決するための手段】上記目的を達成するため
に、本発明は例示された検索したい情報を格納する肯定
例データベース(以下DB)と、検索する必要のないと
例示された情報を格納する否定例DBを設けた。また、
学習機構として、検索結果に基づいて肯定例DBと否定
例DBとを更新するようにした。更に、情報の構成要素
のn字組セットの共通する割合を情報の一致度と見做し
てフィルタリングを行うようにした。
【0006】
【作用】肯定例DBの内容に従って検索すべき情報を選
択し、また、否定例DBの内容に従って検索する必要の
ない情報を選択するので、適切な情報フィルタリングが
可能となる。また、フィルタリング結果を、肯定例DB
や否定例DBに追加登録することにより、実際的な学習
機構を実現することが出来る。また、情報の一致度を、
情報の構成要素の共通する度合いで自律的に判断するの
で、キーワード等の情報を事前に定義しておく必要が無
い。従って、この情報フィルタリング方法は、タスクに
全く依存しないばかりでなく、言語にも依存しない方法
であり、適用範囲が限定されることがない。
【0007】
【実施例】図1は、本発明を特許検索装置に適用した場
合の一実施例を示すブロック図である。先ず、全体構成
を示す図1により、動作の概要を説明する。
【0008】図1において、特許DB1は検索対象とな
る特許情報が格納されている。肯定例DB21には、検
索したい特許情報の例が格納されており、否定例DB2
2には、検索する必要のない特許情報の例が格納されて
いる。情報フィルタ3は、情報を構成している要素の相
続くn字組セットの共通する部分の割合を基準にして情
報の一致度を計算して情報選別を行う処理部で、比較部
31と判定部32とから成っている(詳細な処理手順は
後述する)。比較部31で、肯定例DB21と否定例D
B22との比較を行う。肯定例DB21の内容に近けれ
ば検索し、否定例DB22に近ければ検索しない。肯定
例DB21にも近く否定例DB22にも近い場合の様
に、検索すべきか否かを一意的に判定出来ない場合に
は、判定部32において、端末4を介して利用者(図示
せず)に問合せて最終判定を行う。新たに検索すべきだ
と判定された特許は肯定例DB21に追加され、検索す
る必要が無いと判定された特許は否定例DB22に追加
される。尚、バッチ型処理での特許検索のように、検索
すべきか否かの問合せを、オンライン会話型で利用者に
問合せることが出来ない場合には、検索すべきだと判定
出来た特許情報と、一意的には判定出来なかった特許情
報とをレベル分けして出力することにより対処する。
【0009】ここで、否定例DB22は必ずしも必須の
構成要件ではなく、肯定例DB21のみを参照して特許
検索を行うことも可能である。この場合、検索された特
許情報が肯定例DB21に逐次登録されるので、肯定例
DB21に格納されてる特許の数は単調に増加する。こ
の結果、検索される特許の数が増加する可能性が高くな
り、検索すべき特許情報に似てはいるが、検索する必要
のない特許情報も検索されてしまう結果となる。否定例
DB22を設けることにより、この様な状況を避けるこ
とが出来、より適切な特許検索が可能である。
【0010】肯定例DB21や否定例DB22は、最初
は「空」であっても良いことは明らかで、検索が進むに
つれて、肯定例DB21や否定例DB22の内容が増え
る。すなわち、検索結果が学習されて行く。このよう
に、過去の検索の経験を肯定例DB21や否定例DB2
2として記憶しておくことが出来る。従って、次回の検
索作業を開始するときに、過去の検索時に得た肯定例D
B21や否定例DB22を使うことにより、特許検索を
効率良く再開することが出来る。
【0011】尚、肯定例DB21や否定例DB22の内
容は単調に増加するので、比較部31の処理量も単調に
増加してしまい、大規模な特許検索に対処出来なくなる
可能性がある。しかし、これに対しては、肯定例DB2
1や否定例DB22の内容をクラスタリング等の手法を
用いてグルーピングして再編成することにより対処出来
ることは明らかである以下、本発明の実施例の動作を詳
細に説明する。図2は、特許DB1内の特許データのデ
ータフォーマットを示す。特許DB1内の各々の特許情
報は、「識別番号」と「名称」とによって表現する。こ
のデータフォーマットは極めて簡単で基本的な構成であ
るが、これは、本発明の動作原理を簡明に説明するため
である。従って、この他に、特許の「目的」、「構
成」、「効果」等の項を追加したり、更には、「特許請
求の範囲」や特許公報全体の文章を特許データとして利
用することにより、検索精度を向上させることが出来
る。
【0012】図3は、情報フィルタ3の比較部31の処
理手順を示すフローチャートである。比較部31では、
先ず、特許DB1から次の特許情報を読み込む(次の特
許情報が無い時は、特許DB1内の全ての特許情報の処
理が終了したことになるので、情報フィルタリングの処
理を終了する)。次に、この特許情報の「名称」の部分
の構成要素セットを求める。この構成要素セットは、そ
の情報(テキスト)を構成している要素の相続く2字組
のセットである(構成要素セットを求める手順は後述す
る)。例えば、「名称」が「ニューラル・ネットの効率
的な学習方法」であった場合には、2字組の構成要素セ
ットとして、[ニュ、ュー、ーラ、ラル、ネッ、ット、
効率、率的、学習、習方、方法]が得られる。
【0013】次に、この構成要素セットと、肯定例DB
21内のデータとの比較を行って、最大となる共通要素
比を求める。この最大肯定要素比は、入力された特許情
報の構成要素セットと、肯定例DB21の各々のデータ
の構成要素セットとを比較して、共通する要素の割合を
示す共通要素比を求め、その値が最大となる共通要素比
である。
【0014】図4に、肯定例DB21や否定例DB22
のデータフーマットを示す。今、入力された特許情報の
構成要素セットが、前述の、[ニュ、ュー、ーラ、ラ
ル、ネッ、ット、効率、率的、学習、習方、方法]であ
ったとする。これに対し、肯定例DB21内のデータ
は、「例外表現を一般化した学習方式」の構成要素セッ
トである[例外、外表、表現、一般、般化、学習、習
方、方式]であったとする。この場合、前者の構成要素
の数は11個であり、後者の構成要素の数は8個であ
り、両者に共通する要素は[学習、習方]で2個であ
る。前者の共通要素の割合0.18(2/11)と、後
者の共通要素の割合0.25(2/8)との加算平均と
して、入力情報とこのデータとの共通要素比0.22が
求まる。このような共通要素比の計算を肯定例DB21
内のデータに対して行い、その最大値を、最大肯定要素
比とする。同様の計算を否定例DB22に対して行い、
最大否定要素比を求める。尚、このような比較演算を行
う場合、各々のデータベースの内容をクラスタリングし
ておくことにより、データベース内の全てのデータとの
比較演算をする必要が無くなるので、処理の高速化を図
ることが出来る。
【0015】比較部31の処理結果として、最大肯定共
通要素比と最大否定共通要素比とを出力する。尚、肯定
例DB21や否定例DB22にデータが無く、「空」で
ある場合には、最大の共通要素比は0.0となる。
【0016】図5は、構成要素セットを求める手順を示
すフローチャートである。前述の「ニューラル・ネット
の効率的な学習方法」を入力情報の例にして、図5の処
理手順に沿って説明する。先ず、入力情報から平仮名を
取り除く。この結果、[[ニューラル・ネット]、[効
率的]、[学習方法]]を得る。次に、句読点、空白、
括弧等の記号を取り除く。この例では、“・”が記号と
して取り除かれ、[[ニューラル]、[ネット]、[効
率的]、[学習方法]]となる。次に、残ったテキスト
の連続した部分から、可能な2字組のセットを求める。
この例の[ニューラル]の部分からは[ニュ、ュー、ー
ラ、ラル]が得られ、他の部分にも同様な処理を行い、
その結果として、2次組のセット[ニュ、ュー、ーラ、
ラル、ネッ、ット、効率、率的、学習、習方、方法]が
求まる。最後に、この2次組のセットの中で、重複した
要素を取り除き、入力情報の構成要素セットとする。
【0017】尚、入力情報が英文等で表記されている場
合には、2字組の代わりに、4字組を求めるたり、前置
詞(from等など)を取り除くことにより、効率の良
い構成要素セットを得ることが出来る(冠詞のaやth
e等は4文字以内なので自動的に4字組セットには入ら
ない)。また、和文と英文とが混在した場合でも、使用
しているコード体系から和文か英文かを自動的に判定す
ることが出来るので、入力情報がどの様な言語で記述さ
れているかを指定する必要が無いことは明らかである。
ここで、「一般化したnetworkの学習方式」という入力
情報の場合を例にして説明する。このJISコードによ
る表現は[27,36,64,48,108,72,76,50,61,36,55,36,63,
27,40,74,110,101,116,119,111,114,107,27,36,64,36,7
8,51,88,61,44,74,125,60,48,27,40,74]であり、[27,
36,64]で和文モードになり、[27,40,74]で英文モー
ドになる。従って、連続した部分として[[一般化]、
[network]、[学習方式]]が求まり、構成要素セッ
トとして[一般、般化、netw、etwo、twor、work、学
習、習方、方式]が求まる。
【0018】表1は、情報フィルタ3の判定部32の処
理内容を決める判定表で、比較部31で求めた最大肯定
要素比と最大否定要素比との値の大小によって、入力情
報をどうするかを判定する。表1に示すように、最大肯
定要素比の大小を決める閾値θ1と最大否定要素比の大
小を決める閾値θ2とにより、四種類のケースに分けら
れる。
【0019】
【表1】
【0020】先ず、第1のケースは、最大肯定要素比が
大きく最大否定要素比が小さい場合で、入力情報は、検
索すべき特許情報に近く、検索する必要のない特許情報
には近くない(必要領域)。従って、基本的には、検索
すべき特許情報である可能性が高く、入力情報を検索す
べきだと判定した特許情報として利用者に表示し、
「要」であることを確認する。ここで、「要」を利用者
に確認するのは、肯定例DB21に近くて否定例DB2
2に近くない場合でも、否定例DB22の内容が「空」
であったり、否定例DB22が不必要な特許情報の領域
をカバーするのに充分でない場合等が考えられるからで
ある。この入力情報は、「要」と確認された場合には肯
定例DB21に追加し、「不要」と確認された場合には
否定例DB22に追加する。
【0021】第2のケースは、最大否定要素比が大きく
最大肯定要素比が小さい場合で、入力情報は、検索する
必要のない特許情報に近く、検索すべき特許情報には近
くない(不要領域)。従って、基本的には、検索する必
要のない特許情報である可能性が高く、入力情報を検索
する必要がないと判定した特許情報として利用者に表示
し、「不要」であることを確認する。ここで、「不要」
を利用者に確認するのは、ケース1の場合と同様に、否
定例DB22に近く肯定例DB21に近くない場合で
も、肯定例DB21の内容が「空」であったり、肯定例
DB21が必要な特許情報の領域をカバーするのに充分
でない場合等が考えられるからである。この入力情報
は、「不要」と確認された場合には否定例DB22に追
加し、「要」と確認された場合には肯定例DB21に追
加する。但し、第2のケースの場合には別な処理モード
を設けて、「不要」を確認しないで無条件に否定例DB
22に追加することにより、利用者への問合せを少なく
することが出来る。
【0022】第3のケースは、最大肯定要素比も最大否
定要素比も小さい場合で、入力情報は、検索すべき特許
にも検索する必要のない特許にも近くない。これは、入
力情報が新しい未知領域の情報であると解釈できる(こ
のケースには、一番最初に特許検索を始めた場合のよう
に、肯定例DB21も否定例DB22も「空」の場合が
含まれる)。従って、基本的には、その情報を表示し
て、「要」か「不要」かを利用者に問合せ、「要」の場
合には肯定例DB21に追加し、「不要」の場合には否
定例DB22に追加する。
【0023】第4のケースは、最大肯定要素比も最大否
定要素比も大きい場合で、入力情報は、検索すべき特許
にも検索する必要のない特許にも近い。これは、入力情
報が境界領域の情報であると解釈でき、一意的に「要」
/「不要」を判断出来ない。従って、その情報を表示し
て、「要」か「不要」かを利用者に問合せ、「要」の場
合には肯定例DB21に追加し、「不要」の場合には否
定例DB22に追加する。
【0024】以下では、上述の如き特許検索装置の具体
的な動作例について説明する。まず最初に、肯定例DB
21も否定例DB22も「空」であるとする。特許DB
1からの最初の特許情報の名称が、「例外表現を一般化
した学習方式」であったとする。比較部31の処理で構
成要素セットとして、[例外、外表、表現、一般、般
化、学習、習方、方式]が求まる。しかし、この時、肯
定例DB21も否定例DB22も「空」なので、最大肯
定要素比も最大否定要素比も0.0となる。従って、判
定部32では、第3のケース(新規領域)の処理とし
て、「要」/「不要」を利用者に問合せる。これに対し
て、利用者が「要」と答えたとすると、この特許情報を
肯定例DB21に追加する。
【0025】次に、特許DB1から、入力特許情報「ニ
ューラル・ネットの効率的な学習方法」を読み込んだと
する。この場合、比較部31の処理で、肯定例DB21
内の「例外表現を一般化した学習方式」と比較して、前
述の説明例の通り、最大肯定要素比0.22を得る(共
通する構成要素は[学習、習方])。また、最大否定要
素比は(否定例DB22が「空」なので)0.0とな
る。今、閾値θ1と閾値θ2とを共に0.15に設定し
たとすると、これは第1のケース(必要領域)に対応す
るので、利用者からの「要」の確認を得て、肯定例DB
21に追加する。この時点で、2字組のセットである
[学習、習方]が、必要領域を表現していると言える。
【0026】続いて、特許DB1から、入力特許情報
「最適問題に適したニューロコンピュータ」を読み込ん
だとする。この場合、肯定例DB21に格納されている
「例外表現を一般化した学習方式」との共通要素比は
0.0、「ニューラル・ネットの効率的な学習方法」と
の共通要素比は0.18(共通する構成要素は[ニュ、
ュー])となり、最大肯定要素比は0.18となる。否
定例DB22は「空」のままなので最大否定要素比は
0.0で、第1のケース(必要領域)である。しかし、
この場合、「要」の確認に対して、利用者が「不要」と
応答したとすると、この入力特許情報は、否定例DB2
2に追加される。
【0027】更に、特許DB1から、入力特許情報「統
計的ノイズを利用した光コンピュータ」を読み込んだと
する。この入力特許情報に対する比較部31の処理の結
果、最大肯定要素比は0.09(「ニューラル・ネット
の効率的な学習方法」と共通する構成要素が[ュ
ー])、最大否定要素比は0.44(「最適問題に適し
たニューロコンピュータ」と共通する構成要素が[ュ
ー、コン、ンピ、ピュ、ータ])となる。この入力特許
情報は第2のケース(不要領域)に対応するので、「不
要」の確認を得て、否定例DB22に追加される。この
時点で、2字組のセットである[ュー、コン、ンピ、ピ
ュ、ータ]が、不要領域を表現していると解釈出来る。
【0028】更に、続いて、特許DB1から、入力特許
「自己学習方式によるニューロコンピュータ」を読み込
んだとする。この場合、最大肯定要素比は0.34
(「ニューラル・ネットの効率的な学習方法」と共通す
る構成要素が[ニュ、ュー、学習、習方])、最大否定
要素比は0.67(「最適問題に適したニューロコンピ
ュータ」と共通する構成要素が[ニュ、ュー、ーロ、ロ
コ、コン、ンピ、ピュ、ータ])となる。これは、第4
のケース(境界領域)に対応する。事実、この入力特許
情報には、必要領域を表現していると思われる[学習、
習方]を含んでいると共に、不要領域を表現していると
思われる[ュー、コン、ンピ、ピュ、ータ]を含んでい
る。従って、一意的な判断は出来ないので、利用者に
「要」/「不要」を問合せ、その応答に応じて、肯定例
DB21か否定例DB22に追加する。以上の実施例
は、特許発明の名称部分の情報のみを用いたものであ
る。これに対し、名称以外の情報を積極的に利用するこ
とにより、検索精度を向上させることが出来る。以下で
は特許検索に、「名称」と「目的」とを利用した場合の
実施例について説明する。
【0029】特許検索に利用する情報が増えた場合で
も、図1で示した特許検索装置のシステム構成は変更す
る必要はなく、同じである。但し、特許DB1内のデー
タは、図6の説明図に示すように、複数項データフォー
マットとして、識別番号、「名称」、「目的」の各項別
に分けて格納する。
【0030】これに対応して、肯定例DB21や否定例
DB22の中のデータは、図7の説明図に示すようなフ
ォーマットで、各々の項目に対応する2字組の構成要素
セットを格納する。
【0031】また、このように情報が複数の項に分かれ
ているので、各項目別に求まる共通要素比を纏めた全体
の共通要素比を計算する必要がある。図8に示した複数
項の共通要素比の計算手順のフローチャートを、図6の
入力情報と図7の参照データとを例にして説明する。
【0032】最初、各々の項目別に構成要素セットを比
べて、項目別の共通要素比を求める。例の場合には、先
ず、「名称」の共通要素比を計算する。これは、前述の
計算と全く同じで、共通要素比0.22が求まる。次
に、同様の処理で、「目的」の項の共通要素比を求め
る。入力情報の「目的」の項の構成要素セットは、図5
の処理で、[学習、習過、過程、出力、力誤、誤差、最
小、小値、各種、パラ、ラメ、メー、ータ、最適、適
化、ニュ、ュー、ーラ、ラル、ネッ、ット、効率、率
的、習方、方法、実現、習速、速度、向上](要素数2
9)となる。参照データの「目的」の項(原文は「学習
過程において、例外表現を一般化した規則を利用して規
則空間を最小にして検索効率の向上を図る」とする)の
構成要素セットの要素数は17である。この両者の構成
要素セットを比べると、共通する要素は[学習、習過、
過程、最小、効率、向上](要素数は6)であるので、
「目的」の項の共通要素比として0.28((6/29
+6/17)/2)が求まる。
【0033】続いて、各項目別の共通要素比の内で、最
大値に3倍の重みを掛けて、平均値を求め、その値を、
全体の共通要素比とする。ここで、最大値に数倍の重み
を掛けているのは、共通部分が多い項の共通要素比を強
調するためである(経験的に3倍と定めた)。例の場合
には、「名称」の項の共通要素比が0.22で、「目
的」の項の共通要素比が0.28あるので、全体の共通
要素比は0.27となる。
【0034】尚、以上の共通要素比を計算する部分以外
の処理手順は、情報が複数項になっても変更する必要は
ない。すなわち、情報フィルタ3の比較部31と判定部
32との処理手順は、本質的な変更をする必要はなく、
そのまま使用出来る。従って、情報が複数項になった場
合の動作例も、前述した「名称」の項のみを利用した場
合の動作例と本質的に同じなので説明は省略する。但
し、複数項の情報を利用した場合、より多くの情報を利
用しているので、より精度良く情報をフィルタリング出
来るようになることは明らかである。
【0035】
【発明の効果】本発明によれば、フィルタリングすべき
情報を例示するだけで良く、キーワードやキーワードに
よる論理式を与える必要がないので、必要な情報を適切
にフィルタリング出来る。また、フィルタリングした結
果を学習できるので、順次、知的なフィルタリングが可
能になる。更に、情報の一致度を、情報の構成要素の共
通する度合いで自律的に判断するので、多様に表現され
た情報のフィルタリングが可能になる。
【図面の簡単な説明】
【図1】特許検索装置のシステムブロック図。
【図2】特許DB内のデータフォーマットを示す説明
図。
【図3】比較部の処理手順を示すフローチャート。
【図4】肯定例DB/否定例DBのデータフォーマット
を示す説明図。
【図5】構成要素セットを求める手順を示すフローチャ
ート。
【図6】特許DB内の多項目データフォーマットを示す
説明図。
【図7】肯定例DB/否定例DBの多項目データフォー
マットを示す説明図。
【図8】複数項の共通要素比の計算手順を示すフローチ
ャート。
【符号の説明】
1…特許DB(データベース)、21…肯定例DB、2
2…否定例DB、3…情報フィルタ、31…比較部、3
2…判定部、4…端末。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】情報検索等の情報フィルタリングを行う装
    置において、検索すべきだと例示された情報を格納する
    肯定例データべースと、検索する必要が無いと例示され
    た情報を格納する否定例データベースとを備え、前記肯
    定例データベースと否定例データベースとの内容を参照
    しながら情報のフィルタリングを行うことを特徴とする
    情報フィルタリング装置。
  2. 【請求項2】請求項1において、前記肯定例データベー
    スと前記否定例データベースとを備え、前記肯定例デー
    タベースと前記否定例データベースとの内容を参照しな
    がら情報のフィルタリングを行い、その結果に基づい
    て、前記肯定例データベースと前記否定例データベース
    とを更新する情報フィルタリング装置。
  3. 【請求項3】情報検索等の情報フィルタリングを行う方
    法において、情報を構成している要素の相続くn字組セ
    ットを求め、その共通する部分の割合を基準にして情報
    の一致度を判定し、情報を選別することを特徴とするフ
    ィルタリング方法。
JP4014749A 1992-01-30 1992-01-30 情報フィルタリング装置及びそのフィルタリング方法 Pending JPH05204975A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4014749A JPH05204975A (ja) 1992-01-30 1992-01-30 情報フィルタリング装置及びそのフィルタリング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4014749A JPH05204975A (ja) 1992-01-30 1992-01-30 情報フィルタリング装置及びそのフィルタリング方法

Publications (1)

Publication Number Publication Date
JPH05204975A true JPH05204975A (ja) 1993-08-13

Family

ID=11869764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4014749A Pending JPH05204975A (ja) 1992-01-30 1992-01-30 情報フィルタリング装置及びそのフィルタリング方法

Country Status (1)

Country Link
JP (1) JPH05204975A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916627A (ja) * 1995-04-24 1997-01-17 Toshiba Corp 情報フィルタ装置及び情報フィルタ方法
JPH09288683A (ja) * 1995-09-04 1997-11-04 Matsushita Electric Ind Co Ltd 情報フィルタ装置及び情報フィルタリング方法
JP2003050814A (ja) * 2001-08-08 2003-02-21 Toshiba Corp 辞書管理方法及び辞書管理プログラム並びに辞書管理装置
US6832217B1 (en) 1999-05-19 2004-12-14 Matsushita Electric Industrial Co., Ltd. Information inquiry support apparatus, information inquiry support method, information distribution apparatus, and information distribution method
US6976070B1 (en) 1999-02-16 2005-12-13 Kdd Corporation Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
US8442926B2 (en) 2008-01-08 2013-05-14 Mitsubishi Electric Corporation Information filtering system, information filtering method and information filtering program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916627A (ja) * 1995-04-24 1997-01-17 Toshiba Corp 情報フィルタ装置及び情報フィルタ方法
JPH09288683A (ja) * 1995-09-04 1997-11-04 Matsushita Electric Ind Co Ltd 情報フィルタ装置及び情報フィルタリング方法
US6976070B1 (en) 1999-02-16 2005-12-13 Kdd Corporation Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
US6832217B1 (en) 1999-05-19 2004-12-14 Matsushita Electric Industrial Co., Ltd. Information inquiry support apparatus, information inquiry support method, information distribution apparatus, and information distribution method
JP2003050814A (ja) * 2001-08-08 2003-02-21 Toshiba Corp 辞書管理方法及び辞書管理プログラム並びに辞書管理装置
US8442926B2 (en) 2008-01-08 2013-05-14 Mitsubishi Electric Corporation Information filtering system, information filtering method and information filtering program

Similar Documents

Publication Publication Date Title
EP0070119B1 (en) Join operation processing system in relational model
US6598039B1 (en) Natural language interface for searching database
US7257530B2 (en) Method and system of knowledge based search engine using text mining
JP3870666B2 (ja) 文書検索方法および装置並びにその処理プログラムを記録した記録媒体
US5471677A (en) Data retrieval using user evaluation of data presented to construct interference rules and calculate range of inputs needed for desired output and to formulate retrieval queries
US9336309B2 (en) Detecting correlations between data representing information
US20050223042A1 (en) Method and apparatus for information mining and filtering
CN110297893B (zh) 自然语言问答方法、装置、计算机装置及存储介质
CN113076423A (zh) 数据处理方法及装置、数据查询方法及装置
JP3794716B2 (ja) 単語を語形変化させる方法及びその方法を実行するデータ処理装置
JPH05204975A (ja) 情報フィルタリング装置及びそのフィルタリング方法
JP2000020537A (ja) テキスト検索装置及びテキスト検索プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3472032B2 (ja) 情報フィルタ装置及び情報フィルタ方法
JP2000250919A (ja) 文書処理装置及びそのプログラム記憶媒体
CN109460506B (zh) 一种用户需求驱动的资源匹配推送方法
JPH09212517A (ja) 情報代行検索方法及び装置
CN111460114A (zh) 检索方法、装置、设备及计算机可读存储介质
JPH0962684A (ja) 情報検索方法及び情報検索装置と、情報案内方法及び情報案内装置
CN114579733A (zh) 一种主题脉落的生成方法和系统
JPH11272709A (ja) ファイル検索方式
JP2002183175A (ja) テキストマイニング方法
JPH09185632A (ja) 情報検索・編集方法及び装置
CN113345430B (zh) 基于语音固定条件下多字段的查询方法
JPH033074A (ja) 分散型データベースシステム
JPH09204449A (ja) 部品表作成処理装置