JP2000235540A - Method and device for automatically filtering information using url hierarchy structure - Google Patents

Method and device for automatically filtering information using url hierarchy structure

Info

Publication number
JP2000235540A
JP2000235540A JP11037525A JP3752599A JP2000235540A JP 2000235540 A JP2000235540 A JP 2000235540A JP 11037525 A JP11037525 A JP 11037525A JP 3752599 A JP3752599 A JP 3752599A JP 2000235540 A JP2000235540 A JP 2000235540A
Authority
JP
Japan
Prior art keywords
url
information
inappropriate
filtering
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11037525A
Other languages
Japanese (ja)
Other versions
JP3220104B2 (en
Inventor
Keiichiro Hoashi
啓一郎 帆足
Naoki Inoue
直己 井ノ上
Kazuo Hashimoto
和夫 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDD Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDD Corp filed Critical KDD Corp
Priority to JP03752599A priority Critical patent/JP3220104B2/en
Priority to US09/503,757 priority patent/US6976070B1/en
Publication of JP2000235540A publication Critical patent/JP2000235540A/en
Application granted granted Critical
Publication of JP3220104B2 publication Critical patent/JP3220104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the rate of a correct answer and a reproduction rate by executing automatic filtering on whether HTML information is appropriate or not based on an extracted word and inhibiting the supply of HTML information when HTML information is judged to be inappropriate as the result of automatic filtering. SOLUTION: An HTML document being HTML information supplied from an input part 1 through internet is inputted. It is judged whether the URL of the HTML document is a high-order page or not. When it is high-order URL as the result, a word extraction part 3 extracts a word in the document that high-order URL indicates and automatic filtering is executed based on the extracted word. It is judged whether information is harmful or not. When information is harmful from the judgment, high-order URL is registered in the harmful high-order page table of a harmful high-order page table storage part 11 and the supply of information is inhibited.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターネットを
介して提供される各種情報のうち不適切情報、例えばポ
ルノ画像等のような有害情報を識別し、この識別した不
適切情報の提供を阻止する有害情報自動フィルタリング
方法および装置に関し、更に詳しくは、階層構造に構成
されているURLに基づき不適切情報を判定し、その不
適切情報の提示を阻止するURL階層構造を利用した情
報自動フィルタリング方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention identifies inappropriate information, for example, harmful information such as pornographic images, among various information provided via the Internet, and prevents provision of the identified inappropriate information. More specifically, the present invention relates to a method and apparatus for automatically filtering harmful information, and more particularly, to an automatic information filtering method using a URL hierarchical structure for determining inappropriate information based on a URL structured in a hierarchical structure and preventing presentation of the inappropriate information, and Related to the device.

【0002】[0002]

【従来の技術】インターネットの急速な広がりに伴い、
限られた専門家の道具でしかなかったコンピュータはご
く一般の家庭や学校などにも導入され始めている。この
ため、これまでコンピュータに触れることすらなかった
多くの一般人でも気軽にインターネットにアクセスする
ことが可能になった。こうした背景の中、近年深刻な問
題となっているのがインターネット上に氾濫するポルノ
画像などの有害情報に対する子供のアクセスである。こ
の問題に対処するため、アメリカでは政府機関がインタ
ーネット上の情報を検閲することを可能にした「通信品
位法」という法律が提案されたが、裁判の結果、表現の
自由を保証する憲法に違反すると判決され、立法するこ
とができなかった。
2. Description of the Related Art With the rapid spread of the Internet,
Computers, which were only tools of a limited number of experts, have begun to be introduced to ordinary homes and schools. This has made it possible for many ordinary people who had never even touched a computer to easily access the Internet. Against this background, children's access to harmful information such as pornographic images flooding the Internet has become a serious problem in recent years. To address this issue, the United States proposed a law called the Telecommunications Quality Act, which allowed government agencies to censor information on the Internet, but as a result of a trial, it violated the constitution that guarantees freedom of expression He was ruled and was unable to legislate.

【0003】そこで最近注目されているのが「情報フィ
ルタリング」という技術である。情報フィルタリングと
は、ユーザがインターネット上の情報にアクセスする際
にその情報の有害性をチェックし、有害と判定された場
合は何らかの手段によりその情報へのアクセスをブロッ
クするという技術である。
[0003] Recently, a technique called "information filtering" has attracted attention. Information filtering is a technique in which when a user accesses information on the Internet, the harmfulness of the information is checked, and if the information is determined to be harmful, access to the information is blocked by some means.

【0004】現在市販されている有害情報フィルタリン
グソフトで取り入れられている手法は大きく以下の3つ
に分類される。
[0004] Techniques adopted by currently available harmful information filtering software are roughly classified into the following three.

【0005】 (1)自己判定によるフィルタリング (2)第三者の判定によるフィルタリング (3)自動フィルタリング ここではこの3つの手法について簡単に解説する。ま
ず、自己判定によるフィルタリング手法ではWWW情報
の提供者が自らのコンテンツの有害性について判定を行
い、その結果をHTMLファイル内に記述する。フィル
タリングソフトはこの記述された結果を参照し、有害と
判断された場合にアクセスをブロックする。この手法に
よるフィルタリングを図6に示す。
(1) Filtering based on self-determination (2) Filtering based on determination by a third party (3) Automatic filtering Here, these three methods will be briefly described. First, in the filtering method based on self-determination, a provider of WWW information determines the harmfulness of its own content, and describes the result in an HTML file. The filtering software refers to the described result, and blocks access if it is determined to be harmful. FIG. 6 shows filtering by this method.

【0006】図6に示す自己判定に基づくフィルタリン
グでは、米国マサチューセッツ工科大学のWorld Wide W
eb Consortium が作成したPICS(Platform for Int
ernet Content Selection )と呼ばれるインターネット
コンテンツの評価を記述するための基準を使用してい
る。PICSを使用することにより、コンテンツ提供者
は簡単に自分の提供している情報を描写し、開示するこ
とができる。
[0006] In the filtering based on the self-determination shown in FIG.
PICS (Platform for Int) created by eb Consortium
It uses a criterion for describing Internet content ratings called ernet Content Selection. By using PICS, a content provider can easily depict and disclose information provided by the content provider.

【0007】多くの場合、コンテンツ提供者がこのよう
な評価結果を公開する際には、PICSによる評価結果
を出力する評価機関のサービスを利用する。このような
評価機関の代表として、Recreational Software Adviso
ry Council(RSAC)やSafeSurfといった団体があげ
られ、それぞれ独自に設定した基準による評価結果を提
供している。コンテンツ提供者はこれらの機関からの評
価結果をHTMLファイルのヘッダに記述する。図7に
この評価結果の記述例を示す。
In many cases, when a content provider publishes such an evaluation result, the service of an evaluation organization that outputs the evaluation result by PICS is used. On behalf of such evaluation agencies, Recreational Software Adviso
There are organizations such as the ry Council (RSAC) and SafeSurf, which provide evaluation results based on their own set of standards. The content provider describes the evaluation results from these institutions in the header of the HTML file. FIG. 7 shows a description example of this evaluation result.

【0008】この自己判定はコンテンツ提供者の自主性
に任せられるというのが現状である。そのため、多くの
コンテンツ提供者がこの判定を受けようという意志を持
たない限りは本手法による有効な有害情報フィルタリン
グは不可能であるといえる。
[0008] At present, the self-determination is left to the independence of the content provider. Therefore, it can be said that effective harmful information filtering by this method is impossible unless many content providers have a will to receive this determination.

【0009】次に、第三者による判定に基づくフィルタ
リングについて説明する。有害情報フィルタリングソフ
トを作成している業者の中には、WWW上のホームペー
ジの有害性を独自に判定し、その結果をフィルタリング
ソフトの判断基準とする手法を取り入れている。一般的
には、この評価の結果として有害なホームページのUR
L一覧が構築される。このURLのリストはフィルタリ
ングソフトとともにユーザに分配され、フィルタリング
ソフトの判断基準となる。多くの場合、、フィルタリン
グソフトはこの有害URL一覧を定期的にダウンロード
する仕組みになっている。第三者による判定に基づく有
害情報フィルタリングの仕組みを図8に示す。
Next, the filtering based on the judgment by the third party will be described. Among companies that create harmful information filtering software, a method of independently determining the harmfulness of a homepage on the WWW and using the result as a criterion for the filtering software is adopted. Generally, as a result of this evaluation, the UR of the harmful website
An L list is constructed. This list of URLs is distributed to the user together with the filtering software, and serves as a criterion for the filtering software. In many cases, filtering software is designed to periodically download the harmful URL list. FIG. 8 shows a mechanism of harmful information filtering based on a judgment by a third party.

【0010】このような仕組みを持つソフトウェアの代
表的なものとしてCyberPatrol があげられる。CyberPat
rol は「暴力」「性行為」など13個のジャンルに対
し、それぞれ有害URL一覧を持っており、これらのシ
ステムに従って有害情報フィルタリングを行う。
A typical example of software having such a mechanism is CyberPatrol. CyberPat
rol has a list of harmful URLs for 13 genres such as "violence" and "sex", and performs harmful information filtering according to these systems.

【0011】この手法で使用される有害URL一覧はそ
れぞれのソフトウェア業者でホームページをアクセス
し、判定を行うことによって作成・拡張されているた
め、新しく設立されたホームページや従来のURLから
別のURLに移動したホームページには対処することは
不可能である。従って、こうした評価対象外のページに
対するフィルタリングには対処できないのが現状であ
る。
Since the list of harmful URLs used in this method is created and expanded by accessing the homepage of each software company and making a judgment, the list of harmful URLs is changed from a newly established homepage or a conventional URL to another URL. It is impossible to deal with the moved homepage. Therefore, at present, it is not possible to cope with filtering for pages that are not evaluated.

【0012】次に、自動フィルタリングについて説明す
る。有害情報フィルタリングソフトの中にはアクセスさ
れたホームページの中身をチェックし、有害性の判断を
行うものもある。このような発想は初期のフィルタリン
グソフトで導入されていた。その例として、例えば”s
ex”や“xxx”といった文字列がURLに含まれて
いた場合、そのURLへのアクセスを禁止するなどとい
う処理を行うソフトが存在した。現在はページの中身に
ついて検証を行うソフトも開発されている。CyberSITTE
R はこうした自動フィルタリングを行うソフトの1つで
ある。このソフトではアクセスされたページに含まれる
有害な単語を取り除いて出力するという手法によってフ
ィルタリングが行われる。
Next, automatic filtering will be described. Some harmful information filtering software checks the contents of the accessed homepage to determine harmfulness. Such ideas were introduced in early filtering software. For example, "s
When a character string such as "ex" or "xxx" is included in a URL, there is software that performs processing such as prohibiting access to the URL. Currently, software for verifying the contents of a page has been developed. Yes, CyberSITTE
R is one of the software that performs such automatic filtering. In this software, filtering is performed by a method of removing and outputting harmful words contained in the accessed page.

【0013】本手法には2つの問題点がある。まず1つ
は、この自動判定を行う際に生じる処理時間である。最
も、この程度の処理では数ミリ秒程度の少ない処理時間
ではあるが、こうした短い時間でもユーザにフラストレ
ーションが生じる可能性は否定できない。
The method has two problems. The first is the processing time that occurs when performing this automatic determination. Although the processing time of this level is a short processing time of about several milliseconds, there is no denying that frustration may occur to the user even in such a short time.

【0014】もう一方の問題は、自動フィルタリングの
精度である。まず、単語単位で有害性を判断するような
判定アルゴリズムが採用されている場合、多くの無害な
ページがブロックされてしまう可能性が高い。現に、イ
ギリスの“Sussex”という町に関するホームページがブ
ロックされるといった悪例も報告されている。更に、ペ
ージ内のテキスト情報のみに着目して自動フィルタリン
グを行う場合、画像のみが表示されているページをブロ
ックすることは不可能であるという問題もあげられる。
Another problem is the accuracy of automatic filtering. First, when a judgment algorithm for judging harmfulness in word units is employed, there is a high possibility that many harmless pages will be blocked. In fact, there have been reports of evil cases such as blocking homepages about the town of Sussex in the UK. Further, when automatic filtering is performed by focusing only on text information in a page, there is a problem that it is impossible to block a page on which only an image is displayed.

【0015】[0015]

【発明が解決しようとする課題】フィルタリングソフト
の大きな目的は有害なページがブロックされる割合を増
やすことと、無害なページが誤ってブロックされる割合
を減らすことである。ブロックされたページのうち、実
際に有害だったページの割合を正解率(precision )、
実際に有害なページのうちブロックされたページの割合
を再現率(recall)とすると、フィルタリングソフトの
目的は正解率と再現率をともに高めることであるといえ
る。
The main objectives of filtering software are to increase the rate at which harmful pages are blocked and to reduce the rate at which harmless pages are erroneously blocked. The percentage of blocked pages that were actually harmful is the precision,
Assuming that the ratio of blocked pages among the actually harmful pages is recall, the purpose of the filtering software is to increase both the correct answer rate and the recall rate.

【0016】上述した各手法にはそれぞれ一長一短があ
る。各手法の特徴を正解率と再現率という観点からまと
めた。この結果を表1に示す。
Each of the above methods has advantages and disadvantages. The features of each method are summarized in terms of correct answer rate and recall rate. Table 1 shows the results.

【0017】[0017]

【表1】 このように、現在市販されているフィルタリングソフト
では十分なフィルタリング性能が得られないのが現状で
ある。
[Table 1] Thus, at present, sufficient filtering performance cannot be obtained with currently marketed filtering software.

【0018】また、上述したように、従来の自動フィル
タリングでは、ページ内のテキスト情報のみに着目して
自動フィルタリングを行うため、テキスト情報が少ない
かまたは全くなく、画像のみが表示されているページを
阻止することが不可能であるという問題がある。
Further, as described above, in the conventional automatic filtering, since the automatic filtering is performed by focusing on only the text information in the page, the page in which only the image is displayed with little or no text information is displayed. There is a problem that it is impossible to prevent.

【0019】本発明は、上記に鑑みてなされたもので、
その目的とするところは、階層構造になっているURL
の上位URLを用いることにより正解率および再現率共
に向上し得るとともに、画像のみが掲載されている少テ
キストページに対しても内容の不適切さを適確に判定し
得るURL階層構造を利用した情報自動フィルタリング
方法および装置を提供することにある。
The present invention has been made in view of the above,
The purpose is to use a URL with a hierarchical structure.
Utilizing a URL hierarchical structure that can improve both the correct answer rate and the recall rate by using the upper URL of, and can appropriately judge the inadequacy of the contents even for a small text page in which only an image is posted An object of the present invention is to provide a method and apparatus for automatically filtering information.

【0020】[0020]

【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の本発明は、インターネットを介して
提供される各種情報のうち不適切情報を識別し、この識
別した不適切情報の提供を阻止する情報自動フィルタリ
ング方法であって、インターネットを介して提供される
HTML情報を入力し、このHTML情報のURLが上
位URLであるか否かを判定し、このURLが上位UR
Lである場合、この上位URLが示す情報に出現する単
語を抽出し、この抽出された単語に基づいて該情報が不
適切であるか否かの自動フィルタリングを行い、この自
動フィルタリングの結果、前記情報が不適切であると判
定された場合、前記上位URLを不適切上位URL一覧
に登録するとともに、前記情報の提供を阻止し、前記H
TML情報のURLが上位URLでなかった場合、この
URLを前記登録された不適切上位URL一覧の各UR
Lと照合して、一致するURLがあるか否かを判定し、
一致する場合、このURLが示す情報の提示を阻止し、
前記URLが不適切上位URL一覧のURLと一致する
ものがない場合、該URLが示す情報に出現する単語を
抽出し、この抽出された単語に基づいて該情報が不適切
であるか否かの自動フィルタリングを行い、この自動フ
ィルタリングの結果、前記情報が不適切であると判定さ
れた場合、該情報の提供を阻止することを要旨とする。
In order to achieve the above object, the present invention according to claim 1 identifies inappropriate information among various types of information provided via the Internet, and identifies the inappropriate information. This is an information automatic filtering method for preventing provision, in which HTML information provided via the Internet is input, and it is determined whether or not the URL of the HTML information is a high-order URL.
L, the words appearing in the information indicated by the upper URL are extracted, and based on the extracted words, automatic filtering is performed on whether or not the information is inappropriate. As a result of the automatic filtering, If it is determined that the information is inappropriate, the upper URL is registered in an inappropriate upper URL list, and the provision of the information is prevented.
If the URL of the TML information is not the upper URL, this URL is added to each URL in the registered inappropriate upper URL list.
L to determine whether there is a matching URL,
If they match, the presentation of the information indicated by this URL is prevented,
If the URL does not match the URL in the list of inappropriate upper URLs, a word appearing in the information indicated by the URL is extracted, and whether the information is inappropriate is determined based on the extracted word. The gist of the present invention is to perform automatic filtering, and to block the provision of the information when it is determined that the information is inappropriate as a result of the automatic filtering.

【0021】請求項1記載の本発明にあっては、入力さ
れたHTML情報のURLが上位URLである場合、こ
の上位URLが示す情報に対して自動フィルタリングを
行い、その結果、該情報が不適切である場合、前記上位
URLを不適切上位URL一覧に登録するとともに、前
記情報の提供を阻止し、上位URLでなかった場合、こ
のURLを不適切上位URL一覧の各URLと照合し、
一致するURLがある場合、このURLが示す情報の提
示を阻止し、一致するものがない場合、該URLが示す
情報に対して自動フィルタリングを行い、その結果、前
記情報が不適切である場合、該情報の提供を阻止するた
め、画像のみが提示されている少テキストページでもそ
の不適切さを適確に判定して阻止することができ、正解
率および再現率の両方を向上することができる。
According to the first aspect of the present invention, when the URL of the input HTML information is a high-order URL, the information indicated by the high-order URL is automatically filtered, and as a result, the information becomes invalid. If appropriate, register the upper URL in the list of inappropriate upper URLs and prevent the provision of the information. If not, check the URL against each URL in the list of inappropriate upper URLs.
If there is a matching URL, the presentation of the information indicated by this URL is prevented, and if there is no matching URL, automatic filtering is performed on the information indicated by the URL, and as a result, if the information is inappropriate, In order to prevent the provision of the information, it is possible to accurately determine and prevent inappropriateness even in a small text page in which only an image is presented, thereby improving both the correct answer rate and the recall rate. .

【0022】また、請求項2記載の本発明は、請求項1
記載の発明において、不適切な情報を提供するURLを
不適切URL一覧として登録しておき、前記入力された
HTML情報のURLを前記不適切URL一覧の各UR
Lと照合して、一致するURLがあるか否かを判定し、
一致する場合、このURLが示す情報の提示を阻止する
第三者判定に基づくフィルタリングを更に行うことを要
旨とする。
Further, the present invention according to claim 2 provides the invention according to claim 1.
In the invention described in the above, a URL providing inappropriate information is registered as an inappropriate URL list, and a URL of the inputted HTML information is registered in each URL of the inappropriate URL list.
L to determine whether there is a matching URL,
If they match, the gist is that filtering based on a third-party determination that prevents the presentation of the information indicated by the URL is further performed.

【0023】請求項2記載の本発明にあっては、不適切
な情報を提供するURLを不適切URL一覧として登録
しておき、HTML情報のURLを不適切URL一覧の
各URLと照合して、一致するURLがある場合、この
URLが示す情報の提示を阻止する第三者判定に基づく
フィルタリングを更に行うため、この第三者判定に基づ
くフィルタリングと上位URLを利用した自動フィルタ
リングの両方により更に完全にフィルタリングを行うこ
とができる。
According to the second aspect of the present invention, a URL that provides inappropriate information is registered as an inappropriate URL list, and the URL of the HTML information is checked against each URL in the inappropriate URL list. If there is a matching URL, to further perform filtering based on a third-party determination that prevents the presentation of the information indicated by this URL, the filtering based on the third-party determination and the automatic filtering using the upper URL are further performed. Complete filtering can be performed.

【0024】更に、請求項3記載の本発明は、インター
ネットを介して提供される各種情報のうち不適切情報を
識別し、この識別した不適切情報の提供を阻止する情報
自動フィルタリング装置であって、インターネットを介
して提供されるHTML情報を入力する入力手段と、こ
の入力されたHTML情報のURLが上位URLである
か否かを判定する上位URL判定手段と、該上位URL
判定手段による判定の結果、前記URLが上位URLで
ある場合、この上位URLが示す情報に出現する単語を
抽出し、この抽出された単語に基づいて該情報が不適切
であるか否かの自動フィルタリングを行う第1の自動フ
ィルタリング手段と、この自動フィルタリングの結果、
前記情報が不適切であると判定された場合、該情報の提
示を阻止するとともに、前記上位URLを不適切上位U
RL一覧テーブルに登録する不適切上位URL一覧登録
手段と、前記上位URL判定手段による判定の結果、前
記HTML情報のURLが上位URLでなかった場合、
このURLを前記不適切上位URL一覧テーブルに登録
されている各URLと照合して、一致するURLがある
か否かを判定する不適切URL判定手段と、この判定の
結果、前記URLが不適切上位URL一覧テーブルに登
録されているURLと一致するものがない場合、該UR
Lが示す情報に出現する単語を抽出し、この抽出された
単語に基づいて該情報が不適切であるか否かの自動フィ
ルタリングを行う第2の自動フィルタリング手段と、前
記不適切URL判定手段による判定の結果、前記URL
が不適切上位URL一覧テーブルに登録されているUR
Lと一致する場合、このURLが示す情報の提示を阻止
し、また前記第2の自動フィルタリング手段によるフィ
ルタリングの結果、前記情報が不適切であると判定され
た場合、該情報の提供を阻止する情報提示阻止手段とを
有することを要旨とする。
Further, the present invention according to claim 3 is an information automatic filtering device for identifying inappropriate information among various types of information provided via the Internet, and preventing provision of the identified inappropriate information. Input means for inputting HTML information provided via the Internet, high-order URL determining means for determining whether or not the URL of the input HTML information is a high-order URL;
If the result of the determination by the determining means is that the URL is a high-order URL, a word appearing in the information indicated by the high-order URL is extracted, and based on the extracted word, whether or not the information is inappropriate is automatically determined. A first automatic filtering means for performing filtering, and a result of the automatic filtering;
If it is determined that the information is inappropriate, the presentation of the information is prevented, and the upper URL is changed to the inappropriate upper U.
When the URL of the HTML information is not the upper URL as a result of the determination by the inappropriate upper URL list registration unit to be registered in the RL list table and the upper URL determination unit,
An inappropriate URL determining unit that checks the URL against each URL registered in the inappropriate upper URL list table to determine whether there is a matching URL, and as a result of the determination, determines whether the URL is inappropriate. If there is no URL that matches the URL registered in the upper URL list table,
A second automatic filtering means for extracting a word appearing in the information indicated by L and automatically filtering whether or not the information is inappropriate based on the extracted word; As a result of the determination, the URL
UR registered in the inappropriate upper URL list table
L, the presentation of the information indicated by the URL is prevented, and if the information is determined to be inappropriate as a result of the filtering by the second automatic filtering means, the provision of the information is prevented. The gist of the present invention is to have an information presentation preventing means.

【0025】請求項3記載の本発明にあっては、入力さ
れたHTML情報のURLが上位URLである場合、こ
の上位URLが示す情報に対して自動フィルタリングを
行い、その結果、該情報が不適切である場合、前記上位
URLを不適切上位URL一覧テーブルに登録するとと
もに、前記情報の提供を阻止し、上位URLでなかった
場合、このURLを不適切上位URL一覧テーブルの各
URLと照合し、一致するURLがある場合、このUR
Lが示す情報の提示を阻止し、一致するものがない場
合、該URLが示す情報に対して自動フィルタリングを
行い、その結果、前記情報が不適切である場合、該情報
の提供を阻止するため、画像のみが提示されている少テ
キストページでもその不適切さを適確に判定して阻止す
ることができ、正解率および再現率の両方を向上するこ
とができる。
According to the third aspect of the present invention, when the URL of the input HTML information is a high-order URL, the information indicated by the high-order URL is automatically filtered, and as a result, the information becomes invalid. If the URL is appropriate, the upper URL is registered in the inappropriate upper URL list table, and the provision of the information is prevented. If the URL is not the upper URL, the URL is checked against each URL in the inappropriate upper URL list table. , If there is a matching URL, this URL
L to prevent the presentation of the information indicated by L and, if there is no match, perform automatic filtering on the information indicated by the URL. As a result, if the information is inappropriate, the provision of the information is prevented. The inadequacy of a small text page in which only an image is presented can be accurately determined and prevented, and both the correct answer rate and the recall rate can be improved.

【0026】請求項4記載の本発明は、請求項3記載の
発明において、不適切な情報を提供するURLを不適切
URL一覧テーブルに登録する不適切URL一覧登録手
段と、前記入力手段から入力される前記HTML情報の
URLを前記不適切URL一覧テーブルに登録されてい
る各URLと照合し、一致するURLがあるか否かを判
定する一致URL判定手段と、この判定の結果、一致す
るURLがある場合、このURLが示す情報の提示を阻
止する第三者判定に基づくフィルタリング手段とを更に
有することを要旨とする。
According to a fourth aspect of the present invention, in the invention of the third aspect, an inappropriate URL list registering means for registering a URL providing inappropriate information in an inappropriate URL list table, and an input from the input means. Matching URL determining means for checking the URL of the HTML information to be performed with each URL registered in the inappropriate URL list table to determine whether there is a matching URL, and as a result of this determination, the matching URL In this case, the gist of the present invention is to further include filtering means based on a third-party determination for preventing presentation of the information indicated by the URL.

【0027】請求項4記載の本発明にあっては、不適切
な情報を提供するURLを不適切URL一覧テーブルと
して登録しておき、HTML情報のURLを不適切UR
L一覧テーブルの各URLと照合して、一致するURL
がある場合、このURLが示す情報の提示を阻止する第
三者判定に基づくフィルタリングを更に行うため、この
第三者判定に基づくフィルタリングと上位URLを利用
した自動フィルタリングの両方により更に完全にフィル
タリングを行うことができる。
According to the present invention, a URL providing inappropriate information is registered as an inappropriate URL list table, and the URL of the HTML information is registered as an inappropriate URL.
Check each URL in the L list table for a matching URL
In order to further perform filtering based on a third-party determination that prevents the presentation of the information indicated by this URL, there is a more complete filtering by both the filtering based on the third-party determination and the automatic filtering using the upper URL. It can be carried out.

【0028】[0028]

【発明の実施の形態】以下、図面を用いて本発明の実施
の形態について説明する。図1は、本発明の一実施形態
に係るURL階層構造を利用した情報自動フィルタリン
グ装置の構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an automatic information filtering apparatus using a URL hierarchical structure according to an embodiment of the present invention.

【0029】図1に示す情報自動フィルタリング装置
は、インターネットを介して提供される各種情報のうち
不適切情報、例えばポルノ等の有害情報を識別し、この
識別した不適切情報の提供を阻止するものであり、イン
ターネットを介して提供されるHTML情報を入力する
入力部1、この入力された情報に出現する単語を抽出す
る単語抽出部3、この抽出した単語や本実施形態の情報
自動フィルタリング処理を実行するソフトウェアやその
他の各種情報を記憶する記憶部5、単語の重みデータを
格納する単語重みデータ格納部7、自動フィルタリング
を行う自動フィルタリング部9、有害上位ページ一覧を
テーブルとして格納している有害上位ページ一覧テーブ
ル格納部11、およびフィルタリングした結果を出力す
る出力部13から構成されている。
The information automatic filtering device shown in FIG. 1 identifies inappropriate information, for example, harmful information such as pornography, out of various information provided via the Internet, and prevents provision of the identified inappropriate information. And an input unit 1 for inputting HTML information provided via the Internet, a word extraction unit 3 for extracting words appearing in the input information, and an automatic filtering process for the extracted words and the information according to the present embodiment. A storage unit 5 that stores software to be executed and other various information, a word weight data storage unit 7 that stores word weight data, an automatic filtering unit 9 that performs automatic filtering, and a harmful table that stores a list of harmful top pages as a table. An upper page list table storage unit 11 and an output unit 13 that outputs a filtering result are configured. It is.

【0030】本実施形態の情報自動フィルタリング装置
は、URL階層構造を有するURLのうち上位URLを
利用して、有害情報のフィルタリングを行うものである
が、まずその概念について説明する。
The automatic information filtering apparatus of this embodiment performs filtering of harmful information by using a higher URL among URLs having a URL hierarchical structure. First, the concept will be described.

【0031】上述したように、自動フィルタリングの大
きな問題の1つとしてテキスト情報が少ないあるいは全
くないホームページに対するフィルタリングが困難であ
ることがあげられる。特にポルノ系の有害情報ページに
は画像のみが掲載されているものが多数含まれていると
考えられるため、これらの少テキストページに対する対
処法を検討する必要がある。しかし、典型的なWWWユ
ーザならば、画像のみのページにアクセスするためにリ
ンクをたどるものと考えられる。この仮定が真実なら
ば、画像ページに至るまでの上位階層のページに対して
フィルタリングを行えば画像ページへのアクセスもブロ
ックすることが可能になる。この上位階層のページに対
してフィルタリングを行う手法について説明する。
As described above, one of the major problems of the automatic filtering is that it is difficult to filter a home page having little or no text information. In particular, pornographic harmful information pages are considered to contain many images with only images, so it is necessary to consider how to deal with these small text pages. However, a typical WWW user would follow a link to access an image-only page. If this assumption is true, access to the image page can be blocked by filtering the pages in the upper hierarchy up to the image page. A method for performing filtering on the upper-layer page will be described.

【0032】まず、上位階層にあるページをそのURL
が以下に列挙した7つの文字列で終わるページとする: (1)index.html (2)index.htm (3)index.shtml (4)welcome.html (5)welcome.htm (6)welcome.shtml (7)/ 例えば、http://www.kdd.co.jp/index.html やhttp://w
ww.asahi.com/ などは上位ページとみなされる。これら
上位ページのうち、フィルタリングソフトによって有害
と判断されたものを有害上位ページ一覧に保存する。こ
の際、URLのすべてを保存するのではなく、URLの
うち最も深いディレクトリまでのURLを保存すること
にする。例えば、http://www.###.co.jp/index.html が
有害の場合は、http://www.###.co.jp/ を一覧に保存
し、http://www.###.co.jp/aaa/bbb/ccc/index.html が
有害の場合はhttp://www.###.co.jp/aaa/bbb/ccc/ を一
覧に保存する。
First, the page in the upper hierarchy is stored in the URL
Is a page ending with the seven strings listed below: (1) index.html (2) index.htm (3) index.shtml (4) welcome.html (5) welcome.htm (6) welcome. shtml (7) / For example, http://www.kdd.co.jp/index.html or http: // w
ww.asahi.com/ etc. are regarded as top pages. Of these top pages, those judged to be harmful by the filtering software are stored in a harmful top page list. At this time, instead of storing all of the URLs, the URLs up to the deepest directory among the URLs are stored. For example, if http: //www.###.co.jp/index.html is harmful, save http: //www.###.co.jp/ in the list and http: // www If. ###. co.jp/aaa/bbb/ccc/index.html is harmful, save http: //www.###.co.jp/aaa/bbb/ccc/ in the list.

【0033】上位ページ以外のページへのアクセスの
際、通常の自動有害性判断の前に、この有害上位ページ
一覧に記されているURLとアクセスされているページ
のURLを比較する。比較の結果、アクセスされたペー
ジのURLのディレクトリが有害上位ページ一覧中のど
れかのURLと一致した場合、そのページを有害である
とみなす。例えばhttp://www.###.co.jp/ が有害上位ペ
ージ一覧に含まれていた場合、http://www.###.co.jp/a
aa/bbb.html もhttp://www.###.co.jp/nantoka.html も
有害であるとみなす。一方、有害上位ページ一覧中のデ
ータと一致しない場合は、自動フィルタリングソフトに
より有害性の判断を行う。
When accessing a page other than the upper page, before the normal automatic harmfulness judgment, the URL described in the harmful upper page list is compared with the URL of the accessed page. As a result of the comparison, if the directory of the URL of the accessed page matches one of the URLs in the harmful upper page list, the page is regarded as harmful. For example, if http: //www.###.co.jp/ is included in the list of top harmful pages, http: //www.###.co.jp/a
Both aa / bbb.html and http: //www.###.co.jp/nantoka.html are considered harmful. On the other hand, if the data does not match the data in the harmful top page list, harmfulness is determined by automatic filtering software.

【0034】上述した考え方に基づいて本実施形態の情
報自動フィルタリング装置は有害情報を阻止するように
構成されている。次に、図2に示すフローチャートを参
照して、図1に示すURL階層構造を利用した情報自動
フィルタリング装置の作用について説明する。
Based on the above-described concept, the automatic information filtering apparatus according to the present embodiment is configured to block harmful information. Next, the operation of the automatic information filtering apparatus using the URL hierarchical structure shown in FIG. 1 will be described with reference to the flowchart shown in FIG.

【0035】図2において、まず入力部1からインター
ネットを介して提供されるHTML情報であるHTML
文書が入力されると(ステップS11)、この入力され
たHTML文書のURLが上位URL、すなわち上位ペ
ージであるか否かが判定される(ステップS13)。こ
の判定の結果、前記HTML文書のURLが上位URL
である場合には、この上位URLが示す文書、すなわち
情報に出現する単語を単語抽出部3で抽出し、この抽出
した単語に基づいて自動フィルタリング部9による自動
フィルタリングを行い(ステップS15)、前記情報が
有害であるか否かについての判定を行う(ステップS1
7)。
In FIG. 2, first, HTML, which is HTML information provided from the input unit 1 via the Internet,
When a document is input (step S11), it is determined whether or not the URL of the input HTML document is an upper URL, that is, an upper page (step S13). As a result of this determination, the URL of the HTML document is
In the case of, the document indicated by the upper URL, that is, the word appearing in the information is extracted by the word extraction unit 3, and the automatic filtering unit 9 performs automatic filtering based on the extracted word (step S15). A determination is made as to whether the information is harmful (step S1).
7).

【0036】この自動フィルタリングの情報の有害性に
ついて判定の結果、前記情報が有害である場合には、前
記上位URLを有害上位ページ一覧テーブル格納部11
の有害上位ページ一覧テーブルに登録するとともに(ス
テップS21)、この情報の提供を阻止(ブロック)し
て処理を終了する(ステップS31)。
As a result of the judgment on the harmfulness of the information of the automatic filtering, when the information is harmful, the upper URL is stored in the harmful upper page list table storage unit 11.
Is registered in the harmful upper page list table (step S21), the provision of this information is blocked (blocked), and the process is terminated (step S31).

【0037】一方、ステップS17における判定の結
果、前記情報が有害でない場合には、出力部13により
ブラウザに表示して処理を終了する(ステップS1
9)。
On the other hand, if the result of determination in step S17 is that the information is not harmful, it is displayed on the browser by the output unit 13 and processing is terminated (step S1).
9).

【0038】また、ステップS13における上位ページ
か否かの判定の結果、上位ページでない場合には、この
URLを有害上位ページ一覧テーブル格納部11に有害
上位ページ一覧テーブルとして登録されている各URL
と照合し(ステップS23)、一致するURLがあるか
否かをチェックする(ステップS25)。このチェック
の結果、有害上位ページ一覧テーブルに一致するURL
がある場合には、このURLが示す情報の提供を阻止し
て処理を終了する(ステップS31)。
If it is determined in step S13 that the page is not the upper page, if the URL is not the upper page, this URL is registered in the harmful upper page list table storage unit 11 as each harmful upper page list table.
Is checked (step S23), and it is checked whether there is a matching URL (step S25). As a result of this check, a URL that matches the harmful top page list table
If there is, the provision of the information indicated by the URL is prevented, and the process ends (step S31).

【0039】ステップS25における一致するURLが
あるか否かのチェックの結果、一致するURLがない場
合には、このURLが示す情報に出現する単語を単語抽
出部3で抽出し、この抽出した単語に基づいて自動フィ
ルタリング部9による自動フィルタリングを行い(ステ
ップS27)、前記情報が有害であるか否かについての
判定を行う(ステップS29)。
As a result of checking whether or not there is a matching URL in step S25, if there is no matching URL, a word appearing in the information indicated by the URL is extracted by the word extracting unit 3, and the extracted word is extracted. The automatic filtering is performed by the automatic filtering unit 9 based on the information (step S27), and it is determined whether the information is harmful (step S29).

【0040】この自動フィルタリングの情報の有害性に
ついて判定の結果、前記情報が有害である場合には、該
情報の提供を阻止して処理を終了するが(ステップS3
1)、ステップS29における判定の結果、前記情報が
有害でない場合には、出力部13によりブラウザに表示
して処理を終了する(ステップS19)。
As a result of the judgment on the harmfulness of the information of the automatic filtering, when the information is harmful, the provision of the information is stopped and the process is terminated (step S3).
1) If the result of determination in step S29 is that the information is not harmful, the information is displayed on the browser by the output unit 13 and the process is terminated (step S19).

【0041】上述した本実施形態のURL階層構造を利
用した情報自動フィルタリング装置の効果を判定するた
め、次に示すような評価実験を行った。
In order to determine the effect of the automatic information filtering apparatus using the URL hierarchical structure of the above-described embodiment, the following evaluation experiment was performed.

【0042】この評価実験における評価用のデータとし
て、WWW上のデータを自動的に収集するソフト(「収
集ロボット」)を使用して大量の有害ページを収集し
た。この収集ロボットは290個の有害ページ(うち、
160個が日本語、130個が英語で記述されたペー
ジ)へのリンクが張られているHTMLページから起動
され、順々にリンクをたどりその途中でアクセスされた
HTML文書を収集した。なお、この際収集されたデー
タはHTML文書のみであり、画像データ、音声データ
等は収集していない。この結果、28034個のHTM
L文書が収集された。
As data for evaluation in this evaluation experiment, a large number of harmful pages were collected using software (“collection robot”) for automatically collecting data on the WWW. This collection robot has 290 harmful pages (of which,
HTML pages with links to (160 pages written in Japanese and 130 pages written in English) were launched, and the HTML documents that were accessed along the way were collected by following the links one by one. The data collected at this time is only an HTML document, and image data, audio data, and the like are not collected. As a result, 28034 HTMs
L documents were collected.

【0043】次に、収集された個々のHTML文書に対
し、主観評価によってその有害性を3段階で評価した。
なお、この評価は各ページの性的表現の有無についての
ものである。各評価段階の基準を表2に示す。
Next, the harmfulness of each collected HTML document was evaluated on a three-point scale by subjective evaluation.
In addition, this evaluation is about the presence or absence of the sexual expression of each page. Table 2 shows the criteria for each evaluation stage.

【0044】[0044]

【表2】 収集されたデータに対する有害性評価の結果は表3に示
す通りである。
[Table 2] The results of the hazard assessment for the collected data are as shown in Table 3.

【0045】[0045]

【表3】 この有害性評価とともに、各ページに記述されている言
語についての調査も行った。その結果を表4に示す。
[Table 3] Along with this hazard assessment, a survey was also conducted of the languages described on each page. Table 4 shows the results.

【0046】[0046]

【表4】 また、このデータのうち、上述した「有害上位ページ」
に該当するデータの全有害データ中の割合についても調
査した。なお、ここでは有害データを前記有害性評価の
結果がレベル2または3だったものとする。その結果を
表5に示す。
[Table 4] In addition, out of this data,
The ratio of the data corresponding to the above to the total harmful data was also investigated. Here, it is assumed that the result of the harm evaluation is harmful data of level 2 or 3. Table 5 shows the results.

【0047】[0047]

【表5】 次に、図1に示した実施形態の情報自動フィルタリング
装置に使用されている自動フィルタリング部9による自
動フィルタリングのアルゴリズム、特に前記評価実験に
使用した自動フィルタリングのアルゴリズムについて説
明する。なお、この自動フィルタリングは、情報検索や
自動分類等に使用されているベクトル空間モデルを使用
している。
[Table 5] Next, an algorithm of automatic filtering by the automatic filtering unit 9 used in the information automatic filtering device of the embodiment shown in FIG. 1, particularly an algorithm of automatic filtering used in the evaluation experiment will be described. This automatic filtering uses a vector space model used for information retrieval, automatic classification, and the like.

【0048】まず、入力部1から入力されたHTML文
書をベクトル空間モデルによって表現する。すなわち、
すべての文書を表現するn個の単語を選択し、それぞれ
の文書をn次元のベクトルで次式のように表現する。
First, the HTML document input from the input unit 1 is represented by a vector space model. That is,
The n words representing all documents are selected, and each document is represented by an n-dimensional vector as in the following expression.

【0049】[0049]

【数1】 このベクトルの各要素は、各々単語の文書dでの出現頻
度を正規化したものである。単語の出現頻度の正規化に
は次に示す数式で表されるTFIDFという手法を用
いている。
(Equation 1) Each element of this vector is obtained by normalizing the frequency of occurrence of each word in the document d. To normalize the appearance frequency of words, a technique called TF * IDF represented by the following equation is used.

【0050】[0050]

【数2】 ここで、tfdiは単語iが文書dに出現する頻度、Nは
すべての文書の数、dfi は単語iが出現する文書の数
である。
(Equation 2) Here, tf di is the frequency of word i appears in document d, N is the number of all the documents, df i is the number of documents that word i appears.

【0051】自動フィルタリングは、次に示す数式で表
される線形識別関数によって行われ、この関数によって
単語重みの総和Dis(d)が計算される。
The automatic filtering is performed by a linear discriminant function represented by the following equation, and a total sum Dis (d) of word weights is calculated by this function.

【0052】[0052]

【数3】 ここで、wi は各単語iに対する重みであり、fdiは上
式(3)の値であり、文書における各単語のfdi値であ
る。
(Equation 3) Here, w i is the weight for each word i, f di is the value of the above equation (3), and is the f di value of each word in the document.

【0053】上述した式(3)から、総和Dis(d)
が0より大きい場合、前記文書は有害であり、0以下で
ある場合、無害であると判定される。
From the above equation (3), the sum Dis (d)
Is greater than 0, the document is deemed harmful; if it is less than 0, it is determined to be harmless.

【0054】なお、上述した各単語iに対する重みは文
書dが有害な場合、総和Dis(d)>0となり、無害
な場合、総和Dis(d)≦0となるように設定され
る。
The weight for each word i described above is set such that when the document d is harmful, the total sum Dis (d)> 0, and when it is harmless, the total sum Dis (d) ≦ 0.

【0055】次に、この単語の重みの設定について図3
に示すフローチャートを参照して説明する。なお、この
単語の重みの学習には perceptron learning algorithm
(PLA)を使用している。
Next, the setting of the weight of the word will be described with reference to FIG.
This will be described with reference to the flowchart shown in FIG. The learning of the weight of this word is perceptron learning algorithm
(PLA).

【0056】図3においては、まず各種パラメータを設
定する(ステップS51)。このパラメータとしては、
各単語の重みの集合W=(w1 ,…,wn )、N個の学
習データE={d1 ,…,dN }、定数η、最大学習回
数Max、図3に示す学習処理を繰り返し行う学習回数
mがある。
In FIG. 3, first, various parameters are set (step S51). This parameter includes
A set of weights W = (w 1 ,..., W n ) of each word, N pieces of learning data E = {d 1 ,..., D N }, a constant η, a maximum number of learnings Max, and a learning process shown in FIG. There is a learning number m to be repeated.

【0057】次に、単語の重みの集合Wを初期化する
(ステップS53)。この初期化では、各単語の重みに
乱数を入力する。それから、すべての学習データに対し
て前記単語重みの総和Dis(d)を上式(3)により
計算する(ステップS55)。
Next, a set W of word weights is initialized (step S53). In this initialization, a random number is input as the weight of each word. Then, the sum Dis (d) of the word weights is calculated for all the learning data by the above equation (3) (step S55).

【0058】そして、この計算の結果、すべての無害な
文書dについて総和Dis(d)≦0であり、かつすべ
ての有害な文書dについて総和Dis(d)>0である
か否かをチェックし(ステップS57)、そうである場
合には、処理を終了するが、そうでない場合には、この
ように誤って分類されたすべての文書dについて次のス
テップS61,S63で示すように重みの変化度合Sを
補正する(ステップS59)。
Then, as a result of this calculation, it is checked whether or not the total sum Dis (d) ≦ 0 for all harmless documents d and whether the total sum Dis (d)> 0 for all harmful documents d. (Step S57) If so, the process ends. If not, the weight change is performed on all the documents d classified in this way as shown in the following steps S61 and S63. The degree S is corrected (step S59).

【0059】すなわち、ステップS61では、文書di
が有害であって、かつ総和Dis(d)≦0の場合に
は、重み変化度合Sを増加するように補正し、またステ
ップS63では、文書di が無害であって、かつ総和D
is(d)>0の場合には、重み変化度合Sを低減する
ように補正する。
That is, in step S61, the document d i
Is a harmful and if the sum Dis (d) ≦ 0 corrects to increase the weight degree of change S, also in step S63, the document d i is a harmless, and the sum D
If is (d)> 0, correction is made so as to reduce the weight change degree S.

【0060】そして、このように補正された重み変化度
合Sを使用して単語重みの集合WをステップS65で示
す式のように補正する。それから、学習回数mを+1イ
ンクリメントし(ステップS67)、この学習回数mが
最大学習回数Maxより小さいか否かをチェックし(ス
テップS69)、また最大学習回数Maxより小さい場
合には、ステップS55に戻り、ステップS57に示し
た条件が満たされるまで、ステップS55以降の処理を
繰り返し行う。
Then, using the weight change degree S corrected in this way, the word weight set W is corrected as in the equation shown in step S65. Then, the learning number m is incremented by +1 (step S67), and it is checked whether the learning number m is smaller than the maximum learning number Max (step S69). If the learning number m is smaller than the maximum learning number Max, the process proceeds to step S55. Returning, the processing from step S55 is repeated until the condition shown in step S57 is satisfied.

【0061】次に、上述した実施形態のURL階層構造
を利用した情報自動フィルタリング装置の評価実験につ
いて説明する。この評価実験は次に示す3つのプロセス
からなる。
Next, an evaluation experiment of the automatic information filtering apparatus using the URL hierarchical structure of the above-described embodiment will be described. This evaluation experiment includes the following three processes.

【0062】 (1)文書を表現する単語集合抽出。 (2)各単語に対する重みの学習。 (3)最終評価。(1) Extraction of a word set expressing a document. (2) Learning weights for each word. (3) Final evaluation.

【0063】まず、単語抽出のプロセスでは、収集され
たデータの中から日本語で記述された文書5912個に
対し形態素解析を行い、名詞・固有名詞・未定義語を抽
出した。日本語用の形態素解析ソフトを使用したため、
文書中に含まれる英単語は未定義語として抽出される。
また、この形態素解析の際には標準の日本語辞書ととも
に辞書に載っていない性的表現などに関する用語集を制
作し、これを使用した。この専門用語集には約1000
語の単語が登録されている。また、抽出された単語のう
ち、データ全体での出現頻度が20以下の単語は取り除
かれた。この結果、8013個の単語が抽出された。
First, in the word extraction process, a morphological analysis was performed on 5912 documents described in Japanese from the collected data to extract nouns, proper nouns, and undefined words. Because we used morphological analysis software for Japanese,
English words included in the document are extracted as undefined words.
For this morphological analysis, a glossary of sexual expressions not included in the dictionary was created along with a standard Japanese dictionary and used. This glossary contains about 1000
The word of the word is registered. Further, among the extracted words, words whose appearance frequency in the entire data was 20 or less were removed. As a result, 8013 words were extracted.

【0064】重み学習では評価データの一部が使用され
た。この学習用データは18387個のHTML文書か
ら構成される。このうち、英語で記述された文書は92
63個、日本語で記述された文書は8171個、その他
の言語で記述された文書は953個であった。最終評価
は単語抽出用データと学習データを含む評価データ全体
に対して行われた。
In the weight learning, a part of the evaluation data was used. This learning data is composed of 18387 HTML documents. Of these, 92 are written in English.
There were 63 documents, 8171 documents written in Japanese, and 953 documents written in other languages. The final evaluation was performed on the entire evaluation data including the word extraction data and the learning data.

【0065】評価結果では、テキスト情報が少ないHT
ML文書に対するフィルタリングが困難であるという仮
定を証明するため、1つのHTML文書に出現する全単
語数が閾値min以下の文書に対してフィルタリングを
行い、その正解率と再現率を求めた。表6にその結果を
示す。
The evaluation results show that the HT with less text information
In order to prove the assumption that filtering of an ML document is difficult, filtering was performed on a document in which the total number of words appearing in one HTML document is equal to or smaller than a threshold min, and the correct answer rate and the recall rate were obtained. Table 6 shows the results.

【0066】[0066]

【表6】 この結果から明らかなように、単語数が減るにつれ、正
解率こそ大きく変化しないものの、再現率が著しく低下
する。従って、単語数が少ない文書に対するフィルタリ
ングが困難であるという仮定は示されたといえる。
[Table 6] As is apparent from this result, as the number of words decreases, the accuracy rate does not change significantly, but the recall rate decreases significantly. Therefore, it can be said that the assumption that filtering of a document having a small number of words is difficult is performed.

【0067】次に、同じ評価データに対し、URL階層
構造を考慮したフィルタリングを行い、同様に正解率と
再現率を求めた。この結果を表7に示す。
Next, the same evaluation data was filtered in consideration of the URL hierarchical structure, and the correct answer rate and the recall rate were similarly obtained. Table 7 shows the results.

【0068】[0068]

【表7】 この結果から、本発明による自動フィルタリング手法を
取り入れることにより、高い正解率を維持したまま、再
現率を大幅に増加させることができたことが明らかにな
った。これらの結果より、本発明の有効性が証明された
といえる。
[Table 7] From these results, it has been clarified that the adoption of the automatic filtering method according to the present invention has significantly increased the recall while maintaining a high accuracy rate. From these results, it can be said that the effectiveness of the present invention has been proved.

【0069】次に、図4および図5を参照して、本発明
の他の実施形態に係る自動フィルタリング装置について
説明する。この実施形態の自動フィルタリング装置は、
上述したように図1〜図3で説明したURL階層構造を
利用した情報自動フィルタリング装置に対して第三者判
定によりフィルタリングを行う第三者判定フィルタリン
グ処理部を付加するように構成したものであり、両フィ
ルタリング処理を組み合わせることにより理想的なフィ
ルタリングを達成しようとするものである。
Next, an automatic filtering apparatus according to another embodiment of the present invention will be described with reference to FIGS. The automatic filtering device of this embodiment includes:
As described above, the information automatic filtering apparatus using the URL hierarchical structure described with reference to FIGS. 1 to 3 is configured to add a third-party determination filtering processing unit that performs filtering by third-party determination. , By combining the two filtering processes to achieve ideal filtering.

【0070】図4に示す自動フィルタリング装置は、図
1〜図3で説明したURL階層構造を利用した情報自動
フィルタリング装置25に対して第三者判定フィルタリ
ング処理部23および該第三者判定フィルタリング処理
部23で有害URLを参照するために使用される有害U
RL一覧テーブル格納部17が付加されている。
The automatic filtering device shown in FIG. 4 is used for the information filtering device 25 using the URL hierarchical structure described with reference to FIGS. Harmful U used to refer to the harmful URL in the part 23
An RL list table storage unit 17 is added.

【0071】有害URL一覧テーブル格納部17は、有
害情報を提供するURLを有害URL一覧テーブルとし
て格納しているものであり、第三者判定フィルタリング
処理部23は、前記入力部1から入力されたHTML文
書のURLを有害URL一覧テーブル格納部17の有害
URL一覧テーブルに登録されている各URLと照合
し、一致するURLがあるか否かを判定するものであ
る。
The harmful URL list table storage unit 17 stores URLs providing harmful information as a harmful URL list table, and the third party judgment filtering processing unit 23 receives the URL from the input unit 1. The URL of the HTML document is collated with each URL registered in the harmful URL list table of the harmful URL list table storage unit 17 to determine whether there is a matching URL.

【0072】図5は、図4に示す自動フィルタリング装
置の更に詳細な構成を示すブロック図である。図5に示
す自動フィルタリング装置は、図1に示したURL階層
構造を利用した情報自動フィルタリング装置を構成する
入力部1、単語抽出部3、記憶部5、単語重みデータ格
納部7、自動フィルタリング部9、有害上位ページ一覧
テーブル格納部11、出力部13に加えて、図4の第三
者判定フィルタリング処理部23に対応するURLリス
トに基づくフィルタリング部15および有害URL一覧
テーブル格納部17を有している。
FIG. 5 is a block diagram showing a more detailed configuration of the automatic filtering device shown in FIG. The automatic filtering device shown in FIG. 5 includes an input unit 1, a word extraction unit 3, a storage unit 5, a word weight data storage unit 7, and an automatic filtering unit which constitute the information automatic filtering device using the URL hierarchical structure shown in FIG. 9. In addition to the harmful upper page list table storage unit 11 and the output unit 13, the harmful upper page list table storage unit 17 and the harmful URL list table storage unit 17 based on the URL list corresponding to the third party determination filtering processing unit 23 in FIG. ing.

【0073】このように構成される自動フィルタリング
装置、すなわち第三者判定フィルタリング処理部による
URLリスト一覧とURL階層構造を利用した情報自動
フィルタリング装置によるフィルタリング処理では、ま
ずインターネット21を介して入力部1から入力された
HTML文書は、そのURLが有害URL一覧テーブル
格納部17の有害URL一覧テーブルに登録されている
各URLと照合され、一致するURLがあるか否かが判
定される。そして、有害URL一覧テーブル格納部17
の有害URL一覧テーブルに登録されたURLと一致す
る場合には、このURLが示す情報の提示は阻止され
る。
In the filtering process performed by the automatic filtering device configured as described above, that is, in the filtering process performed by the information filtering device using the URL list and the URL hierarchical structure by the third-party judgment filtering unit, first, the input unit 1 The URL of the HTML document input from the URL is collated with each URL registered in the harmful URL list table of the harmful URL list table storage unit 17 to determine whether there is a matching URL. Then, the harmful URL list table storage unit 17
If the URL matches the URL registered in the harmful URL list table, the presentation of the information indicated by this URL is blocked.

【0074】URLリストに基づくフィルタリング部1
5による有害URL一覧テーブルを参照した判定の結
果、有害URL一覧テーブル格納部17の有害URL一
覧テーブルに登録されているURLと一致するものがな
い場合には、URL階層構造を利用した情報自動フィル
タリング装置25によるフィルタリングが図1〜図3で
説明したように行われる。
Filtering unit 1 based on URL list
As a result of the determination made by referring to the harmful URL list table in No. 5, if there is no URL that matches the URL registered in the harmful URL list table in the harmful URL list table storage unit 17, information is automatically filtered using the URL hierarchical structure. The filtering by the device 25 is performed as described in FIGS.

【0075】このように本実施形態では、第三者による
判定に基づくフィルタリングとURL階層構造を利用し
たフィルタリングの両方が行われるため、有害情報を適
確に検出して阻止することができる。
As described above, in this embodiment, since both filtering based on the judgment by the third party and filtering using the URL hierarchical structure are performed, harmful information can be accurately detected and prevented.

【0076】[0076]

【発明の効果】以上説明したように、本発明によれば、
HTML情報のURLが上位URLである場合、この上
位URLが示す情報に対して自動フィルタリングを行
い、その結果、該情報が不適切である場合、上位URL
を不適切上位URL一覧に登録するとともに、該情報の
提供を阻止し、上位URLでなかった場合、このURL
を不適切上位URL一覧の各URLと照合し、一致する
URLがある場合、このURLが示す情報の提示を阻止
し、一致するものがない場合、該URLが示す情報に対
して自動フィルタリングを行い、その結果、該情報が不
適切である場合、該情報の提供を阻止するので、画像の
みが提示されている少テキストページでもその不適切さ
を適確に判定して阻止することができ、正解率および再
現率の両方を向上することができる。
As described above, according to the present invention,
When the URL of the HTML information is the upper URL, the information indicated by the upper URL is automatically filtered. As a result, when the information is inappropriate, the upper URL is used.
Is registered in the list of inappropriate upper URLs, and the provision of the information is prevented. If the URL is not the upper URL, this URL is
Is checked against each URL in the list of inappropriate upper URLs. If there is a matching URL, the presentation of the information indicated by this URL is prevented. If there is no matching URL, the information indicated by the URL is automatically filtered. As a result, if the information is inappropriate, the provision of the information is prevented, so that even a small text page in which only an image is presented can be accurately determined and prevented from being inappropriate, Both the correct answer rate and the recall rate can be improved.

【0077】また、本発明によれば、URL階層構造を
利用した情報自動フィルタリングに加えて、不適切な情
報を提供するURLを不適切URL一覧として登録して
おき、HTML情報のURLを不適切URL一覧の各U
RLと照合して、一致するURLがある場合、このUR
Lが示す情報の提示を阻止する第三者判定に基づくフィ
ルタリングを更に行うので、この第三者判定に基づくフ
ィルタリングと上位URLを利用した自動フィルタリン
グの両方により更に完全にフィルタリングを行うことが
できる。
Further, according to the present invention, in addition to the automatic information filtering using the URL hierarchical structure, a URL providing inappropriate information is registered as an inappropriate URL list, and the URL of the HTML information is registered as an inappropriate URL. Each U in URL list
If there is a matching URL against the RL, this URL
Since the filtering based on the third party determination for preventing the presentation of the information indicated by L is further performed, the filtering can be more completely performed by both the filtering based on the third party determination and the automatic filtering using the upper URL.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るURL階層構造を利
用した情報自動フィルタリング装置の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram illustrating a configuration of an automatic information filtering apparatus using a URL hierarchical structure according to an embodiment of the present invention.

【図2】図1に示すURL階層構造を利用した情報自動
フィルタリング装置の作用を示すフローチャートであ
る。
FIG. 2 is a flowchart showing an operation of the automatic information filtering apparatus using the URL hierarchical structure shown in FIG.

【図3】図2に示すフローチャートに使用されている単
語重みの設定手順を示すフローチャートである。
FIG. 3 is a flowchart showing a procedure for setting word weights used in the flowchart shown in FIG. 2;

【図4】本発明の他の実施形態に係る自動フィルタリン
グ装置の概要構成を示す説明図である。
FIG. 4 is an explanatory diagram showing a schematic configuration of an automatic filtering device according to another embodiment of the present invention.

【図5】図4に示す自動フィルタリング装置の詳細な構
成を示すブロック図である。
5 is a block diagram showing a detailed configuration of the automatic filtering device shown in FIG.

【図6】従来の自己判定に基づくフィルタリングを説明
するための図である。
FIG. 6 is a diagram for explaining conventional filtering based on self-determination.

【図7】図6に示した自己判定に基づくフィルタリング
の一例としてRSACi とSafeSurfによる評価結果の記述例
を示す図である。
7 is a diagram showing an example of description of an evaluation result by RSACi and SafeSurf as an example of filtering based on self-determination shown in FIG. 6;

【図8】従来の第三者による判定に基づく有害情報フィ
ルタリングを説明するための図である。
FIG. 8 is a diagram for explaining conventional harmful information filtering based on determination by a third party.

【符号の説明】[Explanation of symbols]

1 入力部 3 単語抽出部 7 単語重みデータ格納部 9 自動フィルタリング部 11 有害上位ページ一覧テーブル格納部 15 URLリストに基づくフィルタリング部 17 有害URL一覧テーブル格納部 DESCRIPTION OF SYMBOLS 1 Input part 3 Word extraction part 7 Word weight data storage part 9 Automatic filtering part 11 Harmful upper page list table storage part 15 Filtering part based on URL list 17 Harmful URL list table storage part

───────────────────────────────────────────────────── フロントページの続き (72)発明者 橋本 和夫 埼玉県上福岡市大原2−1−15 株式会社 ケイディディ研究所内 Fターム(参考) 5B075 KK60 KK63 ND36 5B089 HA10 JA22 JB02 KA04 KA12 KA17 KB07 KC15 KC52 KC53 LB08  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kazuo Hashimoto 2-1-15 Ohara, Kamifukuoka-shi, Saitama F-term in Kadidi Laboratory Co., Ltd. (Reference) 5B075 KK60 KK63 ND36 5B089 HA10 JA22 JB02 KA04 KA12 KA17 KB07 KC15 KC52 KC53 LB08

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 インターネットを介して提供される各種
情報のうち不適切情報を識別し、この識別した不適切情
報の提供を阻止する情報自動フィルタリング方法であっ
て、 インターネットを介して提供されるHTML情報を入力
し、このHTML情報のURLが上位URLであるか否
かを判定し、 このURLが上位URLである場合、この上位URLが
示す情報に出現する単語を抽出し、この抽出された単語
に基づいて該情報が不適切であるか否かの自動フィルタ
リングを行い、 この自動フィルタリングの結果、前記情報が不適切であ
ると判定された場合、前記上位URLを不適切上位UR
L一覧に登録するとともに、前記情報の提供を阻止し、 前記HTML情報のURLが上位URLでなかった場
合、このURLを前記登録された不適切上位URL一覧
の各URLと照合して、一致するURLがあるか否かを
判定し、一致する場合、このURLが示す情報の提示を
阻止し、 前記URLが不適切上位URL一覧のURLと一致する
ものがない場合、該URLが示す情報に出現する単語を
抽出し、この抽出された単語に基づいて該情報が不適切
であるか否かの自動フィルタリングを行い、 この自動フィルタリングの結果、前記情報が不適切であ
ると判定された場合、該情報の提供を阻止することを特
徴とするURL階層構造を利用した情報自動フィルタリ
ング方法。
1. An automatic information filtering method for identifying inappropriate information among various types of information provided via the Internet and preventing the provision of the identified inappropriate information, wherein the HTML is provided via the Internet. Information is input, and it is determined whether the URL of the HTML information is a high-order URL. If the URL is a high-order URL, a word appearing in the information indicated by the high-order URL is extracted, and the extracted word is extracted. Based on the information, perform automatic filtering of whether or not the information is inappropriate. If the result of the automatic filtering is that the information is determined to be inappropriate, the upper URL is replaced with an inappropriate upper UR.
And registering the information in the L list, and preventing the provision of the information. If the URL of the HTML information is not the upper URL, the URL is compared with each URL in the registered inappropriate upper URL list to match. It is determined whether or not there is a URL. If the URL matches, the presentation of the information indicated by the URL is prevented. If the URL does not match the URL of the inappropriate upper URL list, the information appears in the information indicated by the URL. A word to be extracted, and based on the extracted word, perform automatic filtering on whether or not the information is inappropriate. As a result of the automatic filtering, when it is determined that the information is inappropriate, An information automatic filtering method using a URL hierarchical structure, characterized by preventing provision of information.
【請求項2】 不適切な情報を提供するURLを不適切
URL一覧として登録しておき、前記入力されたHTM
L情報のURLを前記不適切URL一覧の各URLと照
合して、一致するURLがあるか否かを判定し、一致す
る場合、このURLが示す情報の提示を阻止する第三者
判定に基づくフィルタリングを更に行うことを特徴とす
る請求項1記載のURL階層構造を利用した情報自動フ
ィルタリング方法。
2. Registering a URL that provides inappropriate information as a list of inappropriate URLs and registering the input HTM
The URL of the L information is checked against each URL in the list of inappropriate URLs to determine whether there is a matching URL. If there is a match, the URL is determined based on a third party determination that prevents the presentation of the information indicated by the URL. 2. The method according to claim 1, further comprising performing filtering.
【請求項3】 インターネットを介して提供される各種
情報のうち不適切情報を識別し、この識別した不適切情
報の提供を阻止する情報自動フィルタリング装置であっ
て、 インターネットを介して提供されるHTML情報を入力
する入力手段と、 この入力されたHTML情報のURLが上位URLであ
るか否かを判定する上位URL判定手段と、 該上位URL判定手段による判定の結果、前記URLが
上位URLである場合、この上位URLが示す情報に出
現する単語を抽出し、この抽出された単語に基づいて該
情報が不適切であるか否かの自動フィルタリングを行う
第1の自動フィルタリング手段と、 この自動フィルタリングの結果、前記情報が不適切であ
ると判定された場合、該情報の提示を阻止するととも
に、前記上位URLを不適切上位URL一覧テーブルに
登録する不適切上位URL一覧登録手段と、 前記上位URL判定手段による判定の結果、前記HTM
L情報のURLが上位URLでなかった場合、このUR
Lを前記不適切上位URL一覧テーブルに登録されてい
る各URLと照合して、一致するURLがあるか否かを
判定する不適切URL判定手段と、 この判定の結果、前記URLが不適切上位URL一覧テ
ーブルに登録されているURLと一致するものがない場
合、該URLが示す情報に出現する単語を抽出し、この
抽出された単語に基づいて該情報が不適切であるか否か
の自動フィルタリングを行う第2の自動フィルタリング
手段と、 前記不適切URL判定手段による判定の結果、前記UR
Lが不適切上位URL一覧テーブルに登録されているU
RLと一致する場合、このURLが示す情報の提示を阻
止し、また前記第2の自動フィルタリング手段によるフ
ィルタリングの結果、前記情報が不適切であると判定さ
れた場合、該情報の提供を阻止する情報提示阻止手段と
を有することを特徴とするURL階層構造を利用した情
報自動フィルタリング装置。
3. An automatic information filtering apparatus for identifying inappropriate information among various kinds of information provided via the Internet and preventing provision of the identified inappropriate information, wherein the HTML is provided via the Internet. Input means for inputting information; upper URL determining means for determining whether or not the URL of the input HTML information is a higher URL; as a result of the determination by the higher URL determining means, the URL is a higher URL In this case, a first automatic filtering means for extracting a word appearing in the information indicated by the upper URL and automatically filtering whether or not the information is inappropriate based on the extracted word; As a result, when it is determined that the information is inappropriate, the presentation of the information is prevented and the upper URL is inappropriate. And inadequate upper URL list registration means for registering the upper URL list table, the result of the determination by the upper URL determination means, the HTM
If the URL of the L information is not the upper URL, this URL
L against the respective URLs registered in the inappropriate upper URL list table to determine whether there is a matching URL, and as a result of this determination, the URL If there is no URL that matches the URL registered in the URL list table, a word that appears in the information indicated by the URL is extracted, and based on the extracted word, whether or not the information is inappropriate is automatically determined. A second automatic filtering means for performing filtering, and a result of the determination by the inappropriate URL determination means,
L is registered in the inappropriate upper URL list table
If it matches the RL, the presentation of the information indicated by the URL is prevented, and if the information is determined to be inappropriate as a result of the filtering by the second automatic filtering means, the provision of the information is prevented. An automatic information filtering apparatus using a URL hierarchical structure, characterized by comprising information presentation blocking means.
【請求項4】 不適切な情報を提供するURLを不適切
URL一覧テーブルに登録する不適切URL一覧登録手
段と、 前記入力手段から入力される前記HTML情報のURL
を前記不適切URL一覧テーブルに登録されている各U
RLと照合し、一致するURLがあるか否かを判定する
一致URL判定手段と、 この判定の結果、一致するURLがある場合、このUR
Lが示す情報の提示を阻止する第三者判定に基づくフィ
ルタリング手段とを更に有することを特徴とする請求項
3記載のURL階層構造を利用した情報自動フィルタリ
ング装置。
4. An inappropriate URL list registering means for registering a URL providing inappropriate information in an inappropriate URL list table, and a URL of the HTML information input from the input means.
For each U registered in the inappropriate URL list table.
A matching URL determining unit that checks against the RL to determine whether there is a matching URL; and, as a result of the determination, if there is a matching URL, the URL
4. The automatic information filtering apparatus using a URL hierarchical structure according to claim 3, further comprising a filtering means based on a third-party determination for preventing presentation of the information indicated by L.
JP03752599A 1999-02-16 1999-02-16 Automatic information filtering method and apparatus using URL hierarchical structure Expired - Fee Related JP3220104B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP03752599A JP3220104B2 (en) 1999-02-16 1999-02-16 Automatic information filtering method and apparatus using URL hierarchical structure
US09/503,757 US6976070B1 (en) 1999-02-16 2000-02-14 Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03752599A JP3220104B2 (en) 1999-02-16 1999-02-16 Automatic information filtering method and apparatus using URL hierarchical structure

Publications (2)

Publication Number Publication Date
JP2000235540A true JP2000235540A (en) 2000-08-29
JP3220104B2 JP3220104B2 (en) 2001-10-22

Family

ID=12499967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03752599A Expired - Fee Related JP3220104B2 (en) 1999-02-16 1999-02-16 Automatic information filtering method and apparatus using URL hierarchical structure

Country Status (1)

Country Link
JP (1) JP3220104B2 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058929A (en) * 2000-07-05 2000-10-05 김완호 System and method for controlling connection of internet according to age of user
JP2001222513A (en) * 2000-02-08 2001-08-17 Nec Corp Device and method for managing connection request in information communication network system and recording medium recorded with connection request management processing program in information communication network system
JP2003067307A (en) * 2001-08-27 2003-03-07 Kddi Corp Electronic mail monitoring system, electronic mail monitoring method, electronic mail monitoring program and recording medium recorded therewith
JP2003296221A (en) * 2002-04-01 2003-10-17 Kistem Kk Program and system for audiovisual assistance and method therefor
US6928455B2 (en) 2000-03-31 2005-08-09 Digital Arts Inc. Method of and apparatus for controlling access to the internet in a computer system and computer readable medium storing a computer program
JP2009146456A (en) * 2000-11-08 2009-07-02 Orchestria Ltd Information management system
JP2009289245A (en) * 2008-05-27 2009-12-10 Yahoo Japan Corp Message determining device, method and program
US7664732B2 (en) 2003-05-31 2010-02-16 Nhn Corporation Method of managing websites registered in search engine and a system thereof
JP2010102625A (en) * 2008-10-27 2010-05-06 Fujitsu Ltd Method and device for rewriting uniform resource locator
CN102016315A (en) * 2008-05-02 2011-04-13 泽维技术公司 A pumping system
US8015174B2 (en) 2007-02-28 2011-09-06 Websense, Inc. System and method of controlling access to the internet
US8015250B2 (en) 2005-06-22 2011-09-06 Websense Hosted R&D Limited Method and system for filtering electronic messages
US8024471B2 (en) 2004-09-09 2011-09-20 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
JP2011248500A (en) * 2010-05-25 2011-12-08 Kddi R & D Laboratories Inc Web page collecting device, method and program thereof
US8135831B2 (en) 2004-09-09 2012-03-13 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
US8141147B2 (en) 2004-09-09 2012-03-20 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
US8244817B2 (en) 2007-05-18 2012-08-14 Websense U.K. Limited Method and apparatus for electronic mail filtering
US8250081B2 (en) 2007-01-22 2012-08-21 Websense U.K. Limited Resource access filtering system and database structure for use therewith
US8370948B2 (en) 2008-03-19 2013-02-05 Websense, Inc. System and method for analysis of electronic information dissemination events
US8533349B2 (en) 2000-01-28 2013-09-10 Websense, Inc. System and method for controlling access to internet sites
US8615800B2 (en) 2006-07-10 2013-12-24 Websense, Inc. System and method for analyzing web content
US8881277B2 (en) 2007-01-09 2014-11-04 Websense Hosted R&D Limited Method and systems for collecting addresses for remotely accessible information sources
US8938773B2 (en) 2007-02-02 2015-01-20 Websense, Inc. System and method for adding context to prevent data leakage over a computer network
US8959634B2 (en) 2008-03-19 2015-02-17 Websense, Inc. Method and system for protection against information stealing software
US8978140B2 (en) 2006-07-10 2015-03-10 Websense, Inc. System and method of analyzing web content
US9015842B2 (en) 2008-03-19 2015-04-21 Websense, Inc. Method and system for protection against information stealing software
US9117054B2 (en) 2012-12-21 2015-08-25 Websense, Inc. Method and aparatus for presence based resource management
US9130972B2 (en) 2009-05-26 2015-09-08 Websense, Inc. Systems and methods for efficient detection of fingerprinted data and information
US9130986B2 (en) 2008-03-19 2015-09-08 Websense, Inc. Method and system for protection against information stealing software
US9503423B2 (en) 2001-12-07 2016-11-22 Websense, Llc System and method for adapting an internet filter
US9654495B2 (en) 2006-12-01 2017-05-16 Websense, Llc System and method of analyzing web addresses
US9692790B2 (en) 2003-03-14 2017-06-27 Websense, Llc System and method of monitoring and controlling application files

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0926975A (en) * 1995-06-06 1997-01-28 At & T Corp System and method for database access control
JPH10275157A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Data processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0926975A (en) * 1995-06-06 1997-01-28 At & T Corp System and method for database access control
JPH10275157A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Data processor

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565235B2 (en) 2000-01-28 2017-02-07 Websense, Llc System and method for controlling access to internet sites
US8533349B2 (en) 2000-01-28 2013-09-10 Websense, Inc. System and method for controlling access to internet sites
JP2001222513A (en) * 2000-02-08 2001-08-17 Nec Corp Device and method for managing connection request in information communication network system and recording medium recorded with connection request management processing program in information communication network system
US6928455B2 (en) 2000-03-31 2005-08-09 Digital Arts Inc. Method of and apparatus for controlling access to the internet in a computer system and computer readable medium storing a computer program
KR20000058929A (en) * 2000-07-05 2000-10-05 김완호 System and method for controlling connection of internet according to age of user
US7669227B2 (en) 2000-11-08 2010-02-23 Computer Associates Think, Inc. Information management system
JP2009146456A (en) * 2000-11-08 2009-07-02 Orchestria Ltd Information management system
US7685626B2 (en) 2000-11-08 2010-03-23 Computer Associates Think, Inc. Information management system
US7797240B2 (en) 2000-11-08 2010-09-14 Computer Associates Think, Inc. Information management system
US7836482B2 (en) 2000-11-08 2010-11-16 Computer Associates Think, Inc. Information management system
US7908224B2 (en) 2000-11-08 2011-03-15 Computer Associates Think, Inc. Information management system
US7945519B2 (en) 2000-11-08 2011-05-17 Computer Associates Think, Inc. Information management system
JP2003067307A (en) * 2001-08-27 2003-03-07 Kddi Corp Electronic mail monitoring system, electronic mail monitoring method, electronic mail monitoring program and recording medium recorded therewith
US9503423B2 (en) 2001-12-07 2016-11-22 Websense, Llc System and method for adapting an internet filter
JP2003296221A (en) * 2002-04-01 2003-10-17 Kistem Kk Program and system for audiovisual assistance and method therefor
US9692790B2 (en) 2003-03-14 2017-06-27 Websense, Llc System and method of monitoring and controlling application files
US8326818B2 (en) 2003-05-31 2012-12-04 Nhn Corporation Method of managing websites registered in search engine and a system thereof
US7664732B2 (en) 2003-05-31 2010-02-16 Nhn Corporation Method of managing websites registered in search engine and a system thereof
US8141147B2 (en) 2004-09-09 2012-03-20 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
US8024471B2 (en) 2004-09-09 2011-09-20 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
US8135831B2 (en) 2004-09-09 2012-03-13 Websense Uk Limited System, method and apparatus for use in monitoring or controlling internet access
US8015250B2 (en) 2005-06-22 2011-09-06 Websense Hosted R&D Limited Method and system for filtering electronic messages
US9003524B2 (en) 2006-07-10 2015-04-07 Websense, Inc. System and method for analyzing web content
US9723018B2 (en) 2006-07-10 2017-08-01 Websense, Llc System and method of analyzing web content
US9680866B2 (en) 2006-07-10 2017-06-13 Websense, Llc System and method for analyzing web content
US8615800B2 (en) 2006-07-10 2013-12-24 Websense, Inc. System and method for analyzing web content
US8978140B2 (en) 2006-07-10 2015-03-10 Websense, Inc. System and method of analyzing web content
US9654495B2 (en) 2006-12-01 2017-05-16 Websense, Llc System and method of analyzing web addresses
US8881277B2 (en) 2007-01-09 2014-11-04 Websense Hosted R&D Limited Method and systems for collecting addresses for remotely accessible information sources
US8250081B2 (en) 2007-01-22 2012-08-21 Websense U.K. Limited Resource access filtering system and database structure for use therewith
US9609001B2 (en) 2007-02-02 2017-03-28 Websense, Llc System and method for adding context to prevent data leakage over a computer network
US8938773B2 (en) 2007-02-02 2015-01-20 Websense, Inc. System and method for adding context to prevent data leakage over a computer network
US8015174B2 (en) 2007-02-28 2011-09-06 Websense, Inc. System and method of controlling access to the internet
US9473439B2 (en) 2007-05-18 2016-10-18 Forcepoint Uk Limited Method and apparatus for electronic mail filtering
US8799388B2 (en) 2007-05-18 2014-08-05 Websense U.K. Limited Method and apparatus for electronic mail filtering
US8244817B2 (en) 2007-05-18 2012-08-14 Websense U.K. Limited Method and apparatus for electronic mail filtering
US8370948B2 (en) 2008-03-19 2013-02-05 Websense, Inc. System and method for analysis of electronic information dissemination events
US9130986B2 (en) 2008-03-19 2015-09-08 Websense, Inc. Method and system for protection against information stealing software
US9455981B2 (en) 2008-03-19 2016-09-27 Forcepoint, LLC Method and system for protection against information stealing software
US9495539B2 (en) 2008-03-19 2016-11-15 Websense, Llc Method and system for protection against information stealing software
US9015842B2 (en) 2008-03-19 2015-04-21 Websense, Inc. Method and system for protection against information stealing software
US8959634B2 (en) 2008-03-19 2015-02-17 Websense, Inc. Method and system for protection against information stealing software
CN102016315A (en) * 2008-05-02 2011-04-13 泽维技术公司 A pumping system
JP2009289245A (en) * 2008-05-27 2009-12-10 Yahoo Japan Corp Message determining device, method and program
JP2010102625A (en) * 2008-10-27 2010-05-06 Fujitsu Ltd Method and device for rewriting uniform resource locator
US9130972B2 (en) 2009-05-26 2015-09-08 Websense, Inc. Systems and methods for efficient detection of fingerprinted data and information
JP2011248500A (en) * 2010-05-25 2011-12-08 Kddi R & D Laboratories Inc Web page collecting device, method and program thereof
US9117054B2 (en) 2012-12-21 2015-08-25 Websense, Inc. Method and aparatus for presence based resource management
US10044715B2 (en) 2012-12-21 2018-08-07 Forcepoint Llc Method and apparatus for presence based resource management

Also Published As

Publication number Publication date
JP3220104B2 (en) 2001-10-22

Similar Documents

Publication Publication Date Title
JP3220104B2 (en) Automatic information filtering method and apparatus using URL hierarchical structure
US10650087B2 (en) Systems and methods for content extraction from a mark-up language text accessible at an internet domain
US6571240B1 (en) Information processing for searching categorizing information in a document based on a categorization hierarchy and extracted phrases
US7844594B1 (en) Information search, retrieval and distillation into knowledge objects
US7096214B1 (en) System and method for supporting editorial opinion in the ranking of search results
CA2551803C (en) Method and system for enhanced data searching
US6976070B1 (en) Method and apparatus for automatic information filtering using URL hierarchical structure and automatic word weight learning
US20020138525A1 (en) Computer method and apparatus for determining content types of web pages
US20160147866A1 (en) Processing user profiles
EP2080125A1 (en) System and method for processing a query
JP2010539589A (en) Identifying information related to specific entities from electronic sources
CN110717106A (en) Information pushing method and device
US8560518B2 (en) Method and apparatus for building sales tools by mining data from websites
CN110377725B (en) Data generation method and device, computer equipment and storage medium
US10922340B1 (en) Content extraction for literary work recommendation
KR100393176B1 (en) Internet information searching system and method by document auto summation
US7617182B2 (en) Document clustering based on entity association rules
KR101902460B1 (en) Device for document categorizing
CN110427626B (en) Keyword extraction method and device
US8682913B1 (en) Corroborating facts extracted from multiple sources
Rajaraman et al. Mining semantic networks for knowledge discovery
Moumtzidou et al. Discovery of environmental nodes in the web
CN114491215A (en) Search-based method, device, equipment and storage medium for updating word stock of similar senses
KR20230051354A (en) Method for evaluating malicious comments
KR20220067621A (en) Method for determining bad comments and evaluating malicious comments

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees